E-Tourism: Le nuove tecnologie in rete per il sostegno al sistema turistico nazionale SERVIZI I Donato Ettore, Giovanni Gasbarrone, Laurent-Walter Goix l turismo rappresenta una fonte primaria di ricchezza per il nostro Paese, contribuendo con il 12% come seconda voce al PIL nazionale. Il mercato del turismo culturale sta evolvendo verso una dimensione di un completo soddisfacimento dei bisogni del turista, valorizzando da un lato la centralità dell’aspetto culturale all’interno di un’esperienza di viaggio a 360° più ampia e dall’altro una maggiore autonomia del turista nella scelta del proprio “percorso di vacanza”. Il turista mostra infatti una crescente esigenza di svolgere un ruolo attivo e partecipativo nell’esperienza turistica, integrando i contenuti culturali della visita con i contenuti personali auto-generati e condividendoli con la “comunità turistica”. Telecom Italia ha predisposto un’offerta di E-Tourism per supportare i propri clienti, Istituzioni pubbliche e operatori del settore, nell’implementazione di nuovi servizi per la promozione turistica attraverso tecnologie innovative web e mobile. 1 Introduzione Nell’ambito della riorganizzazione dell’ETourism, il posizionamento di Telecom Italia è quello di abilitare un sistema fortemente innovativo, efficiente ed integrato di infrastrutture e servizi in grado di generare impatti 22 positivi su tutti gli stakeholder del comparto turistico; il tutto grazie ad una piattaforma tecnologica Net Centric basata sulla Next Generation Network (NGN) (figura 1), che garantisca una forte interoperabilità tra i diversi attori dell’ecosistema, centralizzando e valorizzando i diversi contenuti multimediali NotIZIaRIo tEcNIco tElEcom ItalIa - anno18 NumeroUNo2009 E-tourism - le nuove tecnologie in rete per il sostegno al sistema turistico nazionale - Donato Ettore, Giovanni Gasbarrone, laurent-Walter Goix del turismo e rendendoli accessibili in ottica di multicanalità. In particolare,Telecom Italia mira a sviluppare soluzioni ICT evolute capaci di innovare tutte le diverse fasi in cui si articola la “travel-experience” vissuta dal turista. In questa “vision” spicca la guida interattiva in mobilità di Telecom Italia, un Cicerone Virtuale che guida il turista nei suoi percorsi culturali offrendo suggerimenti sui siti da visitare e consentendo lo scambio di esperienze di viaggio all’interno di “community” di turisti grazie alla condivisione di informazioni. Immaginiamo come, autorizzando la localizzazione della propria posizione effettuata sul terminale, il turista sia avvisato sul telefonino dell’esistenza di un circuito guidato nelle vicinanze per la visita a luoghi di interesse turistico. L’offerta della possibilità di ricevere informazioni nel percorso turistico avviene con un messaggio di alerting multimediale (MMS o web), che potrebbe, per esempio, provenire da un apparato con radio Bluetooth posto nei siti turistici, e che tramite un link nel messaggio informativo consenta l’accesso all’applicazione ICT di E-Tourism. Aderendo al servizio via cellulare, si accede così ad una mappa dedicata con l’indicazione del per- Figura 1 - la piattaforma Net centric per l`E-tourism corso di visita e dei vari monumenti lungo il percorso. Man mano che si sposta, il turista viene poi seguito sulla mappa georeferenziata, che evidenzia le prossime tappe del circuito e la strada ancora da percorrere. In ambienti come musei e siti archeologici questo avviene in coperture indoor WiFi o con radio Bluetooth che inviano messaggi multimediali informativi dei servizi offerti al turista. 2 NotIZIaRIo tEcNIco tElEcom ItalIa - anno18 NumeroUNo2009 La piattaforma Telecom Italia per l’E-Tourism La vision di Telecom Italia che guida l’ideazione dei servizi ICT per il turismo è quindi tesa a supportare la Pubblica Amministrazione nell’aggregazione e sviluppo dell’offerta per il Turismo a beneficio di tutti gli “end-user” facendo leva su strumenti, mobili o fissi, di gestione dei contenuti turistici multimediali erogati dalla piattaforma di E-Tourism presso i Data Center di Telecom Italia distribuiti sul territorio. 23 E-tourism - le nuove tecnologie in rete per il sostegno al sistema turistico nazionale - Donato Ettore, Giovanni Gasbarrone, laurent-Walter Goix Con tali premesse i principali elementi distintivi dell’approccio Telecom Italia sono: lo sviluppo di un modello di aggregazione dell’offerta su base locale, ovvero “sotto il patrocinio” delle Pubbliche Amministrazioni competenti; il coinvolgimento della PA per la sponsorship del modello e coinvolgimento degli attori business attivi sulla catena del valore; la raccolta e la fornitura di contenuti (es. informazioni per la valorizzazione patrimonio artistico); un forte leverage su device portatili ad uso del cliente finale e su soluzioni infrastrutturali fondate sugli asset Telecom (connettività, data center, Telco Capabilities); l’ipotesi di business subordinata alla costituzione di un modello collaborativo di integrazione pubblico-privato su base locale. 2.1 Caratteristiche principali della piattaforma La piattaforma di E-Tourism risiede presso gli Internet Data Center di Telecom Italia, ed in particolare si basa su un’infrastruttura di servizio virtualizzata, nella logica che contraddistingue tutte le architetture di servizio, ovvero l’Utility Computing Il passaggio da un’infrastruttura tradizionale (un server per applicazione) verso quella di tipo Utility Computing (una sola macchina con capacità computazionale dinamicamente allocata alle varie applicazioni) consente grandi vantaggi dal punto di vista della scalabilità delle performance e della disponibilità del servizio. Con le “infrastrutture virtuali” presenti presso i Data Center e gli Internet Data Center vengono rese disponibili le risorse elaborative necessarie al funzionamento delle applicazioni in ogni momento ed in maniera automatica e trasparente. Tale approccio consente di gestire al meglio la capacità elaborativa in caso di: • momenti imprevisti caratterizzati da picchi molto concentrati di accessi; 24 • domanda di capacità computazionale di tipo stagionale, sia nell’arco di tempo di una giornata es.: eventi turistici spot sia per periodi più lunghi , es.: eventi settimanali (fiere, Carnevali etc…). L’approccio sopra descritto completa con maggiore efficacia, rispetto alle infrastrutture IT dedicate, l’approccio A.S.P., in una logica erogativa che in Telecom Italia prende il nome di Net Computing. Il nucleo centrale della piattaforma di ETourism è un sistema di gestione dei contenuti (Content Management System) finalizzato per le esigenze del Clienti Business di Telecom Italia che hanno bisogno di uno strumento di diffusione multicanale ed in sicurezza dei propri contenuti descrittivi dei Punti di Interesse (POI, Point of Interest). Pertanto possono essere ospitati contenuti come testi, ipertesti HTML, audio e video, e vengono fruiti secondo le modalità con cui l'applicazione presenta i contenuti. Sulla base dei POI inseriti all’interno della piattaforma è possibile eseguire delle ricerche sulla base delle categorie in cui essi sono classificati (arte, ristoranti, trasporti, alloggi, eventi) e selezionando dei criteri di ricerca predefiniti (e.g., tipo di cucina o prezzo del ristorante; tipo alloggio o stelle; tipo di trasporto; data dell’evento), consentendo all’utente una rapida valutazione di ciò che può trovare di utile/interessante intorno a se. I POI possono essere di natura istituzionale, ovvero quelli presenti in maniera nativa nella cartografia utilizzata dalla piattaforma, oppure possono essere individuati dal Top Client stesso ed inseriti all’interno della piattaforma subito dopo la stipula del contratto. Ai POI proposti dal cliente è possibile associare dei contenuti multimediali (testo, audio, video) che il turista potrà visualizzare per ricevere degli approfondimenti in merito a ciò che sta visitando. NotIZIaRIo tEcNIco tElEcom ItalIa - anno18 NumeroUNo2009 E-tourism - le nuove tecnologie in rete per il sostegno al sistema turistico nazionale - Donato Ettore, Giovanni Gasbarrone, laurent-Walter Goix 2.2 XMPP gateway. Quindi il server IVR si presenta alla componente di trasporto come un client XMPP. • Telco Service – piattaforma TI che espone tramite interfacce standardizzate servizi di rete. • L’XMPP gateway crea un’istanza di XMPP client per ogni sessione voce e genera i messaggi XMPP corrispondenti alle richieste vocali dell’utente e traduce in VoiceXML le risposte provenienti dalla componente prima descritta. Il gateway si occupa anche di filtrare (generando appositi criteri di ricerca) tutti i contenuti che non possono essere riprodotti tramite terminale vocale (ad es. i contenuti video). • Il Front End il quale si occupa di realizzare l’adattamento dei servizi alle capability dei terminali. • La Web Application che implementa una console di gestione per ingestion dei contenuti istituzionali e la creazione/abilitazione delle utenze. • Il Context Broker e relativo Location Provider, che fornisce gli strumenti per la localizzazione e la contestualizzazione degli utenti. • Teamlife, la piattaforma dedicata alla gestione e condivisione dei contenuti multimediali generati dagli utenti (foto, video, ecc). In relazione alle funzionalità del servizio Cicerone Virtuale, l’architettura di riferimento della relativa piattaforma è la seguente (figura 2); i software infrastrutturali sono Open Source, a meno di Loquendo e GIS Engine. Componenti logiche della piattaforma La piattaforma E-Tourism mette a disposizione attraverso un’infrastruttura unitaria e con alti livelli di sicurezza, strumenti potenti e di facile uso per l’informazione e l’interazione, tra il turista, gli operatori di settore e la Pubblica Amministrazione. La piattaforma di Telecom Italia per l’E-Tourism si articola sulle seguenti componenti logiche: • il Service Engine è un sistema server che si occupa di implementare le logiche dei servizi specifici della piattaforma, in contrapposizione ad una controparte di trasporto, basata su un sistema di messaggistica istantanea che fornisce i servizi. La struttura architetturale della piattaforma di messaggistica istantanea per i servizi è di tipo SOA (Service Oriented Architecture). • il CMS (Content Management System) è il sistema di gestione dei contenuti con le seguenti modalità di accesso: ○ Web client - per consentire la gestione del sistema e dei contenuti; ○ Web Services interface - per accedere ai contenuti e per esporre alle applicazioni remote funzionalità quali gestione utenti, regole, workflow…; ○ FTP - per effettuare in maniera semplice aggiunte di contenuti o gestione da remoto. • Content Brokering – Convoglia le richieste di servizio che arrivano dalla XMPP server verso il CMS. È il sistema server (inteso sia nell’accezione software che hardware) che si occupa di implementare le logiche dei servizi specifici della piattaforma. • Tecnologie di Interactive Voice Response (IVR) per l’accesso vocale al sistema. Per uniformare l’accesso alla piattaforma del sistema IVR rispetto agli altri client, il server vocale si interfaccia con la componente di mesaggistica tramite un 2.3 NotIZIaRIo tEcNIco tElEcom ItalIa - anno18 NumeroUNo2009 Funzionalità e servizi della piattaforma La piattaforma si configura come un centro servizi evoluto e l’utilizzo dei Web Services ne esalta la flessibilità e quindi la possibilità di implementare rapidamente soluzioni diverse, in funzione delle esigenze 25 E-tourism - le nuove tecnologie in rete per il sostegno al sistema turistico nazionale - Donato Ettore, Giovanni Gasbarrone, laurent-Walter Goix Figura 2 - architettura della piattaforma di E-tourism dei Clienti istituzioni o imprese attraverso diverse modalità di erogazione del servizio al turista singolo, comitive, o alle guide. I servizi erogati si basano sulle seguenti funzionalità : • Iscrizione e Profilazione: preliminare all’utilizzo dei servizi del sistema è l’iscrizione. La procedura, da eseguirsi on-line anche su portale Internet o su sistema vocale, prevede la scelta di un username e di una password e la compilazione di un’anagrafica utente. Il sistema consente inoltre di effettuare alcune scelte di preferenza circa i contenuti da erogare. I dati di profilazione vengono utilizzati per proporre al turista dei percorsi a tema confezionati dalla piattaforma in funzione delle preferenze espresse ma anche per proporre 26 servizi di advertising mirato da parte dei soggetti privati che partecipano al modello. • Login: accesso tramite credenziali per l’autenticazione al sistema. • Navigazione Mappe: è presentata all’utente una mappa della zona in cui si trova. Sovrapposti alla mappa sono indicati i Point of Interest (POI) rispondenti ai criteri eventualmente selezionati in fase di profilazione. È possibile accedere ai contenuti legati ai POI. Le mappe presentate possono riferirsi ad un’area estesa, nel caso in cui l’utente richieda la mappa relativa all’area di interesse al centro servizi, che fornisce la mappa, la posizione dell’utente e la lista dei POI e dei contenuti relativi, visualizzati dalla guida. Il turista naviga la mappa scorrendola. È possibile l’implementazione di un vero e proprio NotIZIaRIo tEcNIco tElEcom ItalIa - anno18 NumeroUNo2009 E-tourism - le nuove tecnologie in rete per il sostegno al sistema turistico nazionale - Donato Ettore, Giovanni Gasbarrone, laurent-Walter Goix • • • • “navigatore personale” guida tra un POI e l’altro. Localizzazione/Contestualizzazione. attivabile attraverso varie tecnologie (GPS, WiFi, NIMBLE, RFID, Bluetooth), scelte in base a condizioni imposte dall’utente, alle caratteristiche del terminale e alla condizione e disponibilità delle risorse. Cartografia: il sistema fornisce le mappe dell’area in cui si trova l’utente. Tali mappe non si limitano necessariamente alla tradizionale cartografia stradale. In contesti indoor il sistema può fornire mappe tematiche di aree interne (es. musei, palazzi, chiese, aree archeologiche). Il passaggio tra la cartografia stradale e quella tematica può essere sia manuale (legato alla selezione di un POI) sia automatica. Itinerari: il sistema può fornire una lista di itinerari da seguire (a piedi o con mezzi di trasporto) in funzione della posizione geografica dell’utente. La funzionalità ammette due livelli di implementazione: ○ l’itinerario è presentato in forma testuale ed i singoli item (POI lungo l’itinerario, svolte, strade) sono georeferenziati per poterli visualizzare sulla mappa. L’utente seleziona gli item mano mano che avanza lungo l’itinerario; ○ l’intero itinerario è georiferito. L’avanzamento nell’itinerario è coadiuvato dal sistema di localizzazione compatibilmente con la precisione caratterizzante la tecnologia impiegata. Community. Chat e messaging: il sistema implementa il concetto di community, ovvero un insieme di utenti collegati da relazioni di reciproca conoscenza. Ad ogni utente è associata una lista degli utenti amici ed è possibile effettuare una ricerca degli amici in base alla vicinanza, oppure ricevere una notifica quando un utente si avvicina ad un amico. Principali funzioni: aggiunta di un amico, invio di un Instant Message, ricerca della posizione di un amico, ricerca degli amici in base alla posizione. 2.4 NotIZIaRIo tEcNIco tElEcom ItalIa - anno18 NumeroUNo2009 Verso l’E-Tourism 2.0 La sindrome del Web 2.0 arriva anche nel turismo. Quanti sono gli utenti turisti “fai da te” che ora pianificano il loro viaggio su Internet guardando foto su Flickr, descrizioni su Wikipedia, recenzioni su TripAdvisor e comprando su Expedia o Venere? I turisti vogliono condividere le loro esperienze pregresse, e gli altri ne sono avidi a loro volta per ottenere consigli, molte volte più validi o aggiornati delle guide tradizionali stesse. Allo stesso tempo, la frammentazione di tale esperienza è alta e il turista spesso non viene seguito durante la fase esperienziale del viaggio, bensì tipicamente solo prima (per pianificare) e dopo (per documentare e condividere media e commenti). In parallelo a questo trend evolutivo notiamo, come anticipato prima, l’evoluzione rapida del mondo degli “smart devices”, fornendo ampie funzionalità e tecnologie abilitanti (grandi display, banda larga mobile, GPS, ecc) e spesso terminali prediletti per servizi “context-aware”, a cominciare dai famosi Location-Based Services. L’evoluzione della piattaforma di E-Tourism in veste 2.0 intende sfruttare entrambi questi trend evolutivi e fa leva su alcuni asset di Telecom Italia (e.g. contesto, location, device e network capability), prevalentemente usando la Context Awareness come broker di informazioni e contenuti dell’utente, che si possono ulteriormente integrare con community esistenti web 2.0 (e.g. Flickr, YouTube, Facebook). In particolare, la piattaforma si sta arricchendo di funzionalità di condivisione di contenuti user-generated di tipo multimediali (e.g. foto o video) e/o testuali (e.g. voti e recenzioni di Punti di Interesse) forniti dai turisti stessi per documentare e condividere la loro esperienza di viaggio. 27 E-tourism - le nuove tecnologie in rete per il sostegno al sistema turistico nazionale - Donato Ettore, Giovanni Gasbarrone, laurent-Walter Goix 3 Approfondimenti tecnici: Multimodal Framework & Context-Awareness 3.1 Il Multimodal Framework La piattaforma di E-Tourism si presenta quindi come una soluzione innovativa non solo in termini di contenuti e funzionalità, ma anche da un punto di vista strettamente tecnico per quanto concerne l’accesso ai servizi, il rendering sui terminali e la gestione delle risorse dei dispositivi. Il problema principale nella realizzazione di una piattaforma di servizi per terminali mobili, infatti, si concretizza nella necessità di garantire l’accesso attraverso dispositivi molto eterogenei, con caratteristiche tecnologiche e funzionali notevolmente diverse tra loro. La soluzione più promettente a questo spinoso problema sembra essere la navigazione WEB, la quale attraverso i browser installati sui dispositivi permette l’accesso alle informazioni ed alle funzionalità gestite in rete. Tuttavia, tale soluzione è fortemente soggetta a due vincoli: • La frammentazione dei browser Si riferisce al fatto che i modelli attualmente utilizzati sono caratterizzati da browser Figura 3 - Funzionalita` Vs disponibilita` di modelli 28 differenti, i quali, a seconda delle scelte fatte dalle manifatturiere, supportano differenti standard, diversi protocolli e tecnologie. Come si evidenzia nella figura 3, infatti, si passa da browser molto semplici i quali supportano la sola codifica HTML delle pagine fino a browser molto evoluti caratterizzati dal supporto alla tecnologia Flash di Adobe, attraverso una miriade di situazioni intermedie che possono contemplare il supporto ai fogli di stile, diverse API javascript, l’interazione asincrona (AJAX) ed altro ancora, come per esempio il supporto di tag proprietari (vedi per esempio l’iPhone di Apple). Questa differenziazione pone dei limiti notevoli, in quanto la progettazione di servizi WEB accessibili da tutti i terminali richiederebbe l’imposizione di limitazioni nell’uso di soluzioni tecnologiche più avanzate che penalizzerebbero troppo i servizi quando acceduti da dispositivi più nuovi e performanti. Viceversa, l’ottimizzazione dei servizi e delle funzionalità con l’ausilio di soluzioni più innovative comprometterebbe la possibilità di accedere ai servizi attraverso un terminale di fascia inferiore. L’applicazione della soluzione sopra descritta al contesto turistico ha determinato la nascita della piattaforma Cicerone Virtuale, la quale si contraddistingue di due parti fondamentali: il front end, basato su MMF il quale rappresenta il punto di accesso ai servizi, ed il backend, nel quale sono implementati tutti i servizi base che caratterizzano la suite. Il risultato è un’applicazione la quale si presenta differentemente in funzione del cellulare che viene utilizzato e la quale è capace, nonostante sia una applicazione web, di utilizzare i ricevitori GPS a bordo dei terminali. • Il limite dei browser ad accedere a tecnologie residenti sui dispositivi. Questo secondo punto riguarda, invece, i limiti che i browser hanno quando sono integrati nei terminali mobili. Infatti, se è vero che i browser dei terminali di NotIZIaRIo tEcNIco tElEcom ItalIa - anno18 NumeroUNo2009 E-tourism - le nuove tecnologie in rete per il sostegno al sistema turistico nazionale - Donato Ettore, Giovanni Gasbarrone, laurent-Walter Goix fascia più alta consentono lo sviluppo di funzionalità avanzate in termini di interazione con i server e user experience, ci sono tecnologie ed informazioni locali che non sono accessibili da una semplice pagina WEB. L’esempio più indicativo è l’uso del ricevitore GPS, indispensabile nella realizzazione di servizi contestualizzati come quelli turistici ma non accessibile da una pagina WEB o da uno script Flash. La possibilità di accedere alle informazioni di latitudine e longitudine, consente, infatti, la contestualizzazione automatica delle informazioni turistiche accanto a servizi più avanzati come la gestione di community nello spazio con ricerca degli amici vicin i o notifiche asincrone di vicinanza a punti di interesse. Per far fronte a questi problemi la soluzione di Telecom Italia, realizzata nei laboratori TILab, è stata costruita a partire da una soluzione tecnica denominata Multimodal Framework. Tale soluzione è caratterizzata da due principali componenti: ○ MMF Plug-in: atto ad estendere le capability dei browser; ○ MMF Lib: framework di sviluppo della componente applicativa lato server. 3.1.1 Verso l'advanced web browsing: MMF Plug-in La componente MMFPlugin nasce con lo scopo di mettere a disposizione delle tecnologie WEB, quindi delle logiche di servizio remote, funzionalità residenti sui dispositivi. La soluzione implementa una componente plug-in modulare che si caratterizza come un ponte tra le pagine WEB e le applicazioni native. L’architettura, descritta in figura 4, è caratterizzata da tre livelli principali e permette di configurare il modulo in diverse configurazioni. In particolare, nella configurazione Plug-in, il modulo estende il browser aggiungendo nuove funzionalità. I moduli GPS, bluetooth, WiFi e CellID vengono utilizzati per accedere ad informazioni di contesto e di localizzazione indoor. Figura 4 - architettura del mmF Plugin NotIZIaRIo tEcNIco tElEcom ItalIa - anno18 NumeroUNo2009 29 E-tourism - le nuove tecnologie in rete per il sostegno al sistema turistico nazionale - Donato Ettore, Giovanni Gasbarrone, laurent-Walter Goix Il modulo Gallery e Camera Control permette l’uso della fotocamera del terminale e l’accesso ai dati multimediali per abilitare gli scenari di servizio di condivisione dei contenuti. Le tecnologie vocali vengono, invece, governate dai moduli TTS e ASR/DSR i quali permettono la realizzazione di applicazioni WEB ad interazione multimodale. Vista l’importanza di estendere le capability dei browser nell’ottica di costruire servizi mobili, i maggiori operatori - AT&T, T-Mobile, Telecom Italia, Telenor, Telefonica, Orange e Vodafone - hanno annunciato nel corso del 2008 una nuova iniziativa denominata BONDI. L’iniziativa è avviata da OMTP (Open Mobile Terminal Platform) un consolidato consorzio internazionale formato da operatori, software/platform provider e manifatturiere sino ad oggi impegnato sopratutto nella definizione di requisiti per terminali mobili e de-frammentazione degli standard per facilitarne l’impiego industriale. BONDI ha l’obiettivo di realizzare un ambiente software per accesso sicuro alle funzionalità del terminale (es. fotocamera, contatti, SMS, telefonia, ecc.) tramite tecnologie web/ajax per facilitare lo sviluppo di applicazioni evolute, basate su browser e wigdet, aprendo alle “community” di sviluppatori. Il progetto prevede anche l’avvio di una nuova community per sviluppo “Open Source” di una Reference Design Implementation. Nell’ambito di tale progetto, Telecom Italia partecipa come co-chair del coordinamento del progetto e contribuisce alla realizzazione di una Reference Implementation open source, la quale integrerà componenti dell’MMFPlugin. 3.1.2 Gestione dei profili e della scalabilità dei servizi: MMF Lib La soluzione MMFLib nasce con l’idea di creare uno strumento attraverso il quale uno sviluppatore di applicazioni WEB per terminali mobili possa gestire ad alto livello le ca- 30 pability dei diversi modelli e, accanto a queste, la presenza o meno delle capability aggiunte dalla componente MMF Plug-in. La libreria MMF consente, quindi, di adattare in maniera trasparente l’elaborazione delle informazioni e la successiva fase di rendering alle caratteristiche fisiche e tecnologiche dei terminali su cui è in esecuzione il client: il device viene caratterizzato a partire dalla definizione marca/modello per giungere sino a dati di più basso livello, come il supporto alle tecnologie AJAX, le dimensioni dello schermo, i codec audio/video supportati, il supporto dei protocolli di comunicazione supportati da Flash. La Libreria MMF è in grado di gestire la parte plugin presente sui terminali in maniera completa e trasparente. In particolare le funzionalità svolte sono: ○ verifica della disponibilità di una versione del plugin compatibile con il terminale collegato; ○ verifica delle presenza del plugin; ○ gestione del processo di installazione; ○ attivazione del plugin; ○ gestione e controllo dei messaggi e direttive di istruzione; ○ elaborazione dei risultati. 3.2 E-Tourism 2.0 Le tecnologie abilitanti per l’E-Tourism 2.0 sono offerti dalla Context Awareness, che fa leva sul contesto dell’utente (e.g. la sua posizione, i suoi amici) e sul ruolo del turista sia come fornitore di informazioni (contenuti, consigli, ecc) che allo stesso tempo fruitore in mobilità. Le principali componenti evolutive sono Teamlife, per la gestione e la condivisione di foto e video contestualizzati tra utenti e Recs, per la gestione di consigli personali e personalizzati su ristoranti, B&B, eventi, monumenti… Queste componenti sfruttano la piattaforma di Context-Awareness come NotIZIaRIo tEcNIco tElEcom ItalIa - anno18 NumeroUNo2009 E-tourism - le nuove tecnologie in rete per il sostegno al sistema turistico nazionale - Donato Ettore, Giovanni Gasbarrone, laurent-Walter Goix enabler per la raccolta e l’elaborazione dei dati di contesto [1]. La figura 5 illustra l’architettura di riferimento della piattaforma di Context-Awareness e l’integrazione dei servizi Recs e Teamlife, evidenziando i flussi di interazione con I device mobili e I sistemi esterni. 3.2.1 Teamlife TeamLife è un’applicazione context-aware che consente ad un utente di condividere media (foto, video, registrazioni audio) e file (es. documenti testuali, presentazioni PowerPoint,…) sfruttando le potenzialità offerte dalla conoscenza del suo contesto real-time: quest’ultimo è utilizzato per taggare in modo contestualizzato i contenuti da condividere. L’applicazione si articola prevalentemente in una componente server che fornisce sia interfaccia programmatiche (API) che grafiche (portale web e mobile), per l’inserimento, la gestione e la fruizione dei media. NotIZIaRIo tEcNIco tElEcom ItalIa - anno18 NumeroUNo2009 Figura 5 - architettura della piattaforma di context-awareness e dei servizi 2.0 teamlife e Recs La homepage del portale TeamLife presenta al visitatore una serie di album virtuali, tra cui ad esempio gli ultimi contenuti pubblicati o una selezione casuale di immagini. Per ciascun contenuto è riportata la descrizione testuale inserita dall’utente al momento della pubblicazione, il nome dell’autore, la data di pubblicazione, ma anche statistiche quali il numero di visite e di commenti. Cliccando su un contenuto, si accede alla schermata dei dettagli). La sezione di descrizione (sotto l’immagine) riporta il commento inserito dall’utente al momento dell’upload, assieme ad una serie di informazioni riguardo al contesto dell’utente all’atto della registrazione del contenuto, come ad esempio il luogo (visualizzato tramite Google Maps) ed i nomi degli amici presenti in quel momento. La sezione delle informazioni sul lato destro riporta tutti i tag associati all’og- 31 E-tourism - le nuove tecnologie in rete per il sostegno al sistema turistico nazionale - Donato Ettore, Giovanni Gasbarrone, laurent-Walter Goix Machine tags I machine tags sono delle tag “programmatiche” in quanto intese prevalentemente per un uso da applicazione, che consente di dare un significato semantico ad una semplice tag libera, chierendone la valenza. Chiamati anche triple-tags, sono costituite da una tripletta di informazioni del tipo namespace, predicato, valore nella sintassi <namespace>:<predicato>=<valore>. Il namespace definisce una classe di significati alla quale appartiene la tag (“geo”, “people”, “address”, ecc.), il predicato indica il nome della proprietà (“name”, “lat”, ecc) mentre il terzo attributo ne indica il valore. Questa funzionalità viene ampiamente usata dalla piattaforma di contesto per discriminare I contenuti sulla base delle singole dimensioni e valori del contesto, ad esempio distinguendo tra le foto scattate a Venezia da quelle con il collega Venezia o taggate semplicemente “Venezia” da un’utente per un qualunque altro motivo. In particolare, la piattaforma di Context Awareness usa i seguenti namespace: - geo per i tag riferiti a coordinate geografiche; - address per i tag relativi all’indirizzo civico del luogo dello scatto; - place per caratterizzare il luogo (tipologia di posto, nome); - people per identificare gli amici vicini; - poi per associare il contenuto ad un Punto di Interesse (POI). getto, sia quelli inseriti dall’utente stesso (ad esempio per associare il contenuto ad un viaggio), che quelli associati al contesto dell’utente, nella forma di machine tags, in modo da poter discriminare meglio le varie informazioni per tipologia (luogo, persone, punti di interesse). È importante notare come le informazioni di contesto (descrizione e tag) vengano aggiunte automaticamente da Teamlife tramite la piattaforma di ContextAwareness, discriminati per tipologia (namespace), e possono facilmente essere usate come filtro, cliccando sull’apposita informazione di interesse. 32 Una delle caratteristiche principali del portale è infatti l’estrema semplificazione nella ricerca dei contenuti, basato su un motore centrale di selezione e quindi nativamente disponibile a qualunque tipo di fruizione, ad esempio grafica (visualizzazione web, ecc) o programmatica (feed rss, ecc): • i tag sono hypertext link che permettono di selezionare e navigare con facilità i contenuti, in particolare sfruttando i tag di contesto come filtri (ad esempio per vedere le foto scattate nello stesso luogo, nello stesso Punto di Interesse (graffiti) o con la stessa persona; • gli album virtuali consentono la selezione in base a vari filtri “statistici” (più visti, votati meglio, ultimi caricati, ecc) e/o per autore, inoltre, esiste anche una modalità di selezione grafica tramite “nuvola di tag” (tag cloud) in cui le tag hanno dimensione proporzionale al numero di volte in cui sono state associate ad un file multimediale. 3.2.2 Recs RecS (Recommendation Services) è un’applicazione context-based che permette di ricevere raccomandazioni e informazioni (ad es. ristoranti, monumenti, punti di interesse, …): • basate sui suggerimenti e i voti di altri utenti: senza alcun forma di adesione, ma semplicemente votando, si entra a far parte di un “social network” di utenti che votano e danno suggerimenti agli altri (in modo anonimo o meno), creando un micro-cosmo di “passa-parola virtuale”; • contestualizzate, cioè calate sulla situazione in cui l’utente si trova in un preciso momento, o in alternativa, de-contestualizzate, ad esempio per impostare a mano la location di cui si desidera ottenere informazioni/raccomandazioni. La principale funzionalità del Recs è quella per gli utenti di poter votare e commentare Punti di Interesse (POI – o item) di NotIZIaRIo tEcNIco tElEcom ItalIa - anno18 NumeroUNo2009 E-tourism - le nuove tecnologie in rete per il sostegno al sistema turistico nazionale - Donato Ettore, Giovanni Gasbarrone, laurent-Walter Goix varie categorie (e.g. monumenti, ristoranti), anche in mobilità. Il duale di questa funzionalità è quella di suggerire all’utente dei Punti di Interesse (POI) in base alla categoria, alle informazioni di contesto disponibili e ai voti forniti dagli altri utenti. I POI suggeriti possono essere ordinati in base alla distanza dall’utente, oppure ai voti dati dagli utenti. Oltre al voto “consigliato” e ai relativi commenti, per ogni POI viene fornito un’insieme di dettagli per raggiungerlo o contattarlo. Il Recs è costituito da un applicazione server strutturata in 3 parti principali: l’interfaccia web mobile/desktop, il motore di raccomandazione e di gestione dei consigli, e il gestore dei Punti di Interesse (POI Provider). La figura 6 mostra alcune schermate/funzionalità dell’interfaccia mobile del RecS (a partire dalla pagina di output dei POI della categoria di interesse, in senso orario): ○ dettagli: indirizzo, click-to-call, metodi di pagamento, giorno di chiusura, ecc.; ○ votazione: si vota assegnando all’item, a seconda del gradimento, da 0 a 5 stellette, e spiegandone il motivo spuntando uno dei tag indicati e/o con un commento testuale; ○ mappa: si visualizza una mappa centrata intorno al punto di interesse, con la possibilità di variare il livello di zoom; ○ why: è possibile sapere il perché un item è stato raccomandato con un certo rating (motivi). Il motore di raccomandazione sfrutta internamente il POI Provider, un sistema di gestione dei Punti di Interesse avanzato che permette di aggregare POI e relativi contenuti provenienti da diverse sorgenti (content providers, e.g. Google, MapPoint, UbiEst). Figura 6 - alcune schermate del RecS: lista di item, dettagli dell`item, votazione, mappa, why NotIZIaRIo tEcNIco tElEcom ItalIa - anno18 NumeroUNo2009 33 E-tourism - le nuove tecnologie in rete per il sostegno al sistema turistico nazionale - Donato Ettore, Giovanni Gasbarrone, laurent-Walter Goix La sua modularità consente di integrare facilmente POI provenienti da amministrazioni pubbliche o fornitori locali, e.g. per eventi, audioguide, o inseriti direttamente dagli utenti stessi, previa moderazione. È importante evidenziare inoltre la flessibilità del Recs riguardo alle tecniche di raccomandazioni utilizzate, in grado di gestire diversi algoritmi a seconda delle necessità di utilizzo del sistema da pate degli utenti. È ovviamente possibile diporre come votazione consigliata di una media generica dei voti dati dagli altri utenti, all’immagine della maggioranza dei portali web di riferimento, ma il Recs fornisce in particolare altri 2 algoritmi avanzati che consentono una calibrazione del consiglio ben più fedele ai gusti dell’utente: ○ Collaborative Filtering, ossia che per ogni item da raccomandare sfrutta i voti dati dagli utenti della community con profilo “simile”, determinato dai voti simili dati in comune ad altri item. ○ Trust Network,basato su indicazioni esplicite di fiducia nei confronti dei propri contatti. Per ogni contatto l’utente può definire categoria e grado di fiducia, e riceverà in cambio raccomandazioni da chi si fida di più. ○ Group Recommendation: in base al gruppo di riferimento nel quale si trova l’utente (con amici ecc), la raccomandazione verrà calcolata sul gruppo intero mediando le preferenze dei singoli. Infine, dato un item qualsiasi del RecS, ogni utente può “appendere” ad esso un contenuto multimediale (testo, foto, audio e video,…), inteso proprio come un “graffito” visibile a tutti coloro che visiteranno successivamente quell’item; come ad esempio i clienti di un pub o di un ristorante che lasciano una foto per raccomandare gli aperitivi della casa, o i cittadini che lasciano “appeso” ad un item di ufficio pubblico o una zona una situazione rilevata…Tali graffiti multimediali vengono salvati e recuperati da 34 Teamlife per maggior interazioni con le altre applicazioni turistiche, sfruttando i machine tag specifici dei POI come filtro. Le funzionalità del Recs possono prestarsi anche idealmente a scenari di tipo Push, in cui a secondo del contesto dell’utente viene inviato un SMS o MMS di notifica della presenza di un POI consigliato nelle vicinanze, con accesso alla relativa scheda di dettaglio o ai graffiti associati come ulteriore incentivo. 4 I servizi per il turismo Facendo leva su tecnologie innovative che favoriscono la convergenza ICT, Telecom Italia presenta quindi una nuova offerta per il settore turismo allo scopo di contribuire a rafforzarne la competitività. Il sostegno alle Pubbliche Amministrazioni ed agli operatori che partecipano al sistema turistico nazionale, è uno degli obiettivi che Telecom Italia si pone e per i quali mette a disposizione tecnologie e modelli avanzati di fruizione e partecipazione. Le Regioni, le Provincie, le Città d’Arte, i gestori di percorsi archeologici, culturali ed enogastronomici, i consorzi di Comuni ed Enti, i Parchi hanno da oggi a disposizione una piattaforma integrata in rete che utilizza le tecnologie innovative per introdurre specifiche soluzioni finalizzate a: • fidelizzare il turista; • destagionalizzare i flussi turistici; • prolungare la permanenza del turista; • potenziare la capacità delle Pubbliche Amministrazioni di dialogare e di “creare sistema” con turisti, cittadini, operatori di business, organi centrali. L’azione di promozione delle istituzioni è attualmente focalizzata nel fornire al turista strumenti che diano uno stimolo a visitare luoghi caratteristici per cultura e con bellezze naturalistiche notevoli ma poco conosciute. NotIZIaRIo tEcNIco tElEcom ItalIa - anno18 NumeroUNo2009 E-tourism - le nuove tecnologie in rete per il sostegno al sistema turistico nazionale - Donato Ettore, Giovanni Gasbarrone, laurent-Walter Goix L’obiettivo è quello di valorizzare gli elementi territoriali, culturali e ambientali comuni, con particolare riferimento agli elementi naturalistici e paesaggistici più significativi. Questo consente di mettere in moto un circolo “virtuoso” di informazioni che darà luogo ad uno scambio di esperienze e forme di cooperazione tra gli attori locali con la creazione di un flusso di informazioni e relazioni che accrescerà la consapevolezza di essere parte di un sistema turistico integrato con strumenti di assistenza promozionale agli operatori. 4.1 NotIZIaRIo tEcNIco tElEcom ItalIa - anno18 NumeroUNo2009 La guida interattiva in mobilità di Telecom Italia Per migliorare l’esperienza turistica e fidelizzare il turista con modalità di fruizione multimediale ed interattiva Telecom Italia offre una guida multimediale in mobilità, che agisce come un “Cicerone Virtuale” figura 7. Il servizio di Guida Multimediale è realizzato per offrire la massima diffusione su terminali Figura 7 - l`interfaccia della guida in mobilita` 35 E-tourism - le nuove tecnologie in rete per il sostegno al sistema turistico nazionale - Donato Ettore, Giovanni Gasbarrone, laurent-Walter Goix mobili, pertanto presenta un’interfaccia “client”, sviluppata per alcuni modelli di smartphone, ma anche l’innovativo Plugin “Multimodal Framework”, sviluppato in Telecom Italia, per assicurare una fruizione accattivante ed una soddisfacente interazione in browsing con i servizi da qualsiasi terminale con sufficienti capacità grafiche. Il servizio di “guida in mobilità” fruibile da un PDA e smartphone o da cellulari con sufficiente capacità grafica, fornisce informazioni riguardanti punti d’interesse artistico (chiese, monumenti, musei, edifici storici, piazze) e/o di servizio (Consolati, Uffici Turistici,Stazioni di polizia, ristoranti e mezzi di trasporto). Per accedere alle funzionalità del Cicerone Virtuale è prevista una fase di autenticazione, a valle della quale si passa al menù di primo livello, strutturato in funzione delle esigenze di esperienza turistica e di comprensione grafica. I vari punti d’interesse (POI) sono riportati in forma grafica su di una mappa cartografica visualizzata sullo schermo del PDA e riferita all’area in cui si trova il turista. Le mappe possono essere personalizzate in modo che il turista possa visualizzare su una certa area solo determinate categorie di punti di interesse (musei, ristoranti, siti turistici, fermate dei mezzi pubblici, eventi...). Per ogni luogo d’interesse artistico l’informazione presentata è di tipo multimediale. Inoltre il “Cicerone Virtuale” può fornire una lista di itinerari tematici (culturali, turismo alternativo, lifestyle etc.) da seguire (a piedi o con mezzi di trasporto) in funzione della posizione geografica del turista. L’interazione con il terminale è di tipo “touch screen” per cui l’accesso alle informazioni è agevole ed intuitivo e si ottiene clickando sul punto d’interesse prescelto evidenziato sulla mappa. Per ogni luogo d’interesse artistico l’informazione presentata è di tipo multimediale combinando elementi testuali, video ed immagini a supporto. In particolare, il sistema 36 è dotato di dispositivi hardware che consentono la localizzazione dell’utente attraverso sistemi quali:il GPS che integrato all’interno del palmare o cellulare permette all’utente, nei luoghi all’aperto, di visualizzare la propria posizione sulla mappa inviando al sistema di back end, istante per istante, le coordinate geografiche, ricevendo, attraverso una connessione GPRS, tutte le informazioni utili alla corretta visualizzazione della propria posizione. L’applicazione di E-Tourism rende disponibile sul dispositivo portatile le informazioni contestualizzate che possono essere utilizzate dal turista per pianificare preventivamente una serie di percorsi turistici che si intendono visitare. Così, grazie al semplice ed intuitivo sistema di ricerca, si potrà, per esempio, individuata la zona di interesse, selezionare tutti i punti di interesse storico, artistico, naturale (POI) e richiedere al sistema di back end di scaricare, preventivamente, tutte le informazioni e le mappe relative al percorso prescelto. Il sistema, durante il percorso, mediante allarmi sonori e visivi sulla mappa, indicherà al turista quali sono i punti da lui indicati fornendo informazioni testuali od audio visive. Nella modalità appena descritta, non occorre una connessione continua tramite GPRS, ma soltanto il supporto alla localizzazione (tipicamente GPS). Inoltre sono integrate nella guida in mobilità le funzionalità 2.0 Teamlife & RecS della Context Awareness per il turismo, che è in grado di comprendere la situazione (context) degli utilizzatori, adattando automaticamente i contenuti e i servizi per fornire ai turisti l’informazione giusta in un momento e in un luogo determinato. L’integrazione di tutte le funzionalità in precedenza descritte, attraverso l’uso di soluzioni architetturali quali quelle implementate nella libreria MMF, porta verso un’architettura come quella illustrata in figura 8, in cui una funzionalità può essere acceduta con diversi profili di funzionamento e con modalità di interazione differenti da dispositivi completa- NotIZIaRIo tEcNIco tElEcom ItalIa - anno18 NumeroUNo2009 E-tourism - le nuove tecnologie in rete per il sostegno al sistema turistico nazionale - Donato Ettore, Giovanni Gasbarrone, laurent-Walter Goix Figura 8 - Piattaforma e tourism : soluzioni per gestire offerte integrate mente diversi quali un’auto, il proprio PC piuttosto che il proprio cellulare o un totem multimediale collocato in un sito turistico o di transito. Ogni dispositivo ha delle capability peculiari che permettono la percorrenza di alcuni rami del servizio, per cui sarà possibile programmare la propria vacanza dal proprio PC o personalizzare i propri itinerari dal televisore dell’albergo munito di ricevitore digitale terrestre, raggiungere le località con la propria automobile mentre il servizio, proprio come un vero e proprio accompagnatore ti racconta le caratteristiche delle città che si attraversano o si stanno per raggiungere; inoltre, mentre l’utente passeggia potrà avere informazioni di dettaglio piuttosto che informazioni di tipo accessorio direttamente dal proprio cellulare. Infine, nel caso voglia acquistare con le monetine l’ingresso ad una mostra si potrà recare ad un totem, continuare la propria navigazione nel servizio e comperare i biglietti desiderati. 5 NotIZIaRIo tEcNIco tElEcom ItalIa - anno18 NumeroUNo2009 E-Tourism: le sperimentazioni di Telecom Italia Il carnevale di Venezia Presentato al Comune di Venezia in occasione del Carnevale 2008, il servizio ha consentito agli utenti che si sono connessi con un accesso Wi-Fi nell’area attiva presso Piazza San Marco, o da rete mobile in tutta l’area di Venezia, di “navigare” tra gli eventi del Carnevale e ricevere informazioni sui siti e percorsi turistici in tempo reale oltre ad interagire tra loro pubblicando sulla piattaforma di E-Tourism di Telecom Italia, con il semplice invio di un MMS, le immagini fotografiche e i relativi commenti sui siti artistici di interesse visitati. Per tutta la durata del Carnevale i turisti hanno potuto ricevere informazioni turistiche in mobilità e contestualizzate, condividere esperienze di viaggio con immagini o filmati, e inserire voti, foto e appunti scritti per consigliare altri e, vicende- 37 E-tourism - le nuove tecnologie in rete per il sostegno al sistema turistico nazionale - Donato Ettore, Giovanni Gasbarrone, laurent-Walter Goix volmente, ricevere pareri. I turisti raggiunti sul proprio cellulare via bluetooth da messaggi multimediali di benvenuto con le informazioni sugli eventi del Carnevale, hanno Figura 9 - la vista del portale E-tourism per il carnevale di Venezia del 2008, accesso su terminale mobile per info sugli eventi e percorsi artistici e pubblicazione foto sullo schermo a Piazza San marco 38 NotIZIaRIo tEcNIco tElEcom ItalIa - anno18 NumeroUNo2009 E-tourism - le nuove tecnologie in rete per il sostegno al sistema turistico nazionale - Donato Ettore, Giovanni Gasbarrone, laurent-Walter Goix potuto inviare le varie foto sull’esperienza che stavano vivendo e rivederle in real time direttamente sui maxi-schermi posti in Piazza San Marco o sui monitor di alcuni bar storici (figura 9). Il trial di Venezia è stato così il primo dimostratore E-Tourism di guida in mobilità con applicazioni Web 2.0, in cui l’utilizzatore non è stato più solo un consumatore, ma è diventato anche produttore di informazione. Questo grazie ad un sistema intelligente creato per le community, pensato per mettere in relazione Amministrazione e gli operatori del turismo con i cittadini ed i turisti. risti di caricare le proprie foto scattate via cellulare o via macchina fotografica anche tornati a casa, incrementando fortemente l'effetto community, per raggiungere più di 12000 viste e 2000 voti. Un altro importante successo dell'E-Tourism in ottica 2.0 che dimostra la proattività spontanea degli utenti e la volontà forte dei turisti di avere un ruolo da protagonista nelle iniziative turistiche delle pubbliche amministrazioni. Demo servizi E-tourism durante il W4B ( Wireless for Business) e SmaU 2008 la Notte Rosa di Rimini Dal 5 Luglio al 22 Agosto 2008, dopo Venezia, anche la Riviera Adriatica è diventata “Context-Aware” e Web 2.0 grazie alla piattaforma di E-Tourism, con il trial svolto durante la Notte Rosa, il cosiddetto Capodanno dell’Estate, che richiama ogni anno circa un milione e mezzo di persone. Durante l'evento infatti il servizio sperimentato ha consentito ai turisti presenti per l'evento di inviare tramite MMS le loro foto o video fatte da cellulare delle varie animazioni e concerti su un sito dedicato (http://teamlife.telecomitalia.it/notterosa) accessibile direttamente dal portale principale dell'evento e pubblicizzato nei vari locali e bagni della Riviera. Il portale consentiva anche il commento e il voto delle foto da parte degli utenti per incentivare la creazione di una community attorno all'evento, potendo condividere i propri giudizi su un particolare evento o foto, e decidendo in modo collegiale la foto più bella o il migliore evento. Oltre al portale web tradizionale i turisti avevano a disposizione un portale mobile (http://nr.teamlife.it) ottimizzato per essere fruito da qualunque device mobile e accedere ai medesimi contenuti e funzionalità. A valle dell'evento stesso, all'inizio di luglio, il trial è stato prolungato per l'intero estate fino a fine agosto per consentire ai tu- Nel corso sia dell’evento W4B che a SMAU è stata resa disponibile ai visitatori una demo dedicata di guida in mobilità per l’evento con informazioni utili dedicate e con la georefenziazione dei contenuti su Fiera Milano City, dove le info logistiche e turistiche sono state legate al contesto di fruizione. (una demo navigazione su web e mobile è disponibile su http://smau.teamlife.it/) La mappa e l’agenda degli eventi sono state rese disponibili on line sugli smartphone dei partecipanti. Un elenco di ristoranti o altre utilità nei dintorni della fiera sono stati fruibili da cellulare con info, mappe e numeri di telefono disponibili immediatamente. 6 NotIZIaRIo tEcNIco tElEcom ItalIa - anno18 NumeroUNo2009 Conclusioni Il mercato del turismo culturale sta evolvendo verso una dimensione d’appagamento complessivo dei bisogni del turista durante la sua esperienza di vacanza comportando da un lato la centralità dell’aspetto culturale all’interno di un’esperienza di viaggio più ampia, con una maggiore autonomia del turista nella scelta del proprio “percorso di vacanza”. 39 E-tourism - le nuove tecnologie in rete per il sostegno al sistema turistico nazionale - Donato Ettore, Giovanni Gasbarrone, laurent-Walter Goix Il turista mostra così una crescente esigenza di svolgere un ruolo attivo e partecipativo nell’esperienza turistica, integrando i contenuti culturali della visita con i contenuti personali auto-generati e condividendoli con la “comunità turistica”. L’offerta ICT di E-Tourism di Telecom Italia venendo incontro a quest’esigenza mette a disposizione, attraverso un’infrastruttura unitaria multi-canale e con alti livelli di sicurezza, strumenti potenti e di facile uso per l’informazione e l’interazione, tra il turista gli operatori di settore e la Pubblica Amministrazione A valle di una fase di sperimentazione dei servizi in campo nel corso del 2008, sono partite molteplici iniziative di collaborazione con la PA e sono in corso di realizzazione implementazioni della piattaforma E-Tourism per offrire un valido supporto alle azioni di promozione delle istituzioni e degli operatori del turismo in Italia. A CRONIMI AJAX API ASR CA CMS DSR GIS GPRS GPS ICT Asynchronous JavaScript and XML Application Programming Interface Automatic Speech Recognition Context Awareness (Content Management System) Digital Speech Recognition Geographic Information System General Packet Radio Service Global Positioning System Information & Communication Technologies IVR Interactive Voice Response LBS Location-Based Services. MMF Multimodal Framework MMS Mobile Multimedia Service NGN Next Generation Network OMTP Open Mobile Terminal Platform PA Pubblica Amministrazione PDA Personal Digital Assistant PIL Prodotto Interno Lordo 40 POI RECS RFID SMS SOA TTS UGC XMPP Point of Interest Recommendations service Radio Frequency Identification Short Message Service Service Oriented Architecture Text To Speech User Generetated Content Extensible Messaging and Presence Protocol B IBLIOGRAFIA [1] “Context Awareness: servizi mobili su misura”, M. Marengo, M. Valla, N. Salis - Notiziario Tecnico Telecom Italia Anno 16 n.1 Aprile 2007, pp 11-21 [2] SMAU RAI Bit 09/11/2008 - In questa puntata: Rivoluzione Tv - Tecnologia vista allo Smau Il “Cicerone Virtuale” per i turisti http://www.radio.rai.it/radio1/bit/search.cfm [3] W4B – Wireless for Business 2008 “La guida turistica interattiva di Telecom Italia” http://www.pmi.telecomitalia.it/pmi/etourism.php [4] SMAU 2007 RAI Neapolis -18/10 Speciale da Smau 2007 “La guida turistica via cellulare e smartphone” http://smau.blog.rai.it/ 2007/10/18/lict-made-in-italy/ [email protected] [email protected] [email protected] NotIZIaRIo tEcNIco tElEcom ItalIa - anno18 NumeroUNo2009 E-tourism - le nuove tecnologie in rete per il sostegno al sistema turistico nazionale - Donato Ettore, Giovanni Gasbarrone, laurent-Walter Goix A UTORI Donato Ettorre Giovanni Gasbarrone laurent-Walter Goix laureato in ingegneria elettronica è entrato in Azienda nel 2001. Autore di numerosi brevetti, si è inizialmente occupato di progettazione di sistemi embedded per la codifica radio e della realizzazione di piattaforme prototipali di terminali mobili. Dal 2005 è responsabile delle attività di ricerca relative all’evoluzione dell’interfaccia utente con l’introduzione di tecnologie embedded innovative quali le tecnologie vocali, i sensori, gli accelerometri ed i display. Dal 2007 ha la responsabilità delle attività di progettazione, integrazione e sviluppo di soluzioni distribuite abilitanti la creazione di servizi mobili, alla base della piattaforma di e Tourism di Telecom Italia ■ laureato in Ingegneria Elettronica, dopo i corsi di specializzazione in Telecomunicazione (SSGRR) e Marketing alla Bocconi SDA, ha iniziato la sua attività in Telecom Italia nella direzione "Ricerca e Sviluppo" e nel Marketing Strategico dove ha seguito lo sviluppo della rete intelligente e radiomobile. Nella Divisione Business dal 1993, è stato responsabile dei servizi commerciali OSS. Nel 1999 è stato coordinatore del progetto di convergenza fisso-mobile in Telekom Austria. Dal 2000 partecipa al World Wireless Research Forum per gli aspetti architetturali dei servizi e business models. Dal 2002 nel Marketing Strategico e Innovazione di Wireline si è occupato dei servizi a larga banda (HSDPA, WiMax e WiFi Mesh) e dei servizi di convergenza fisso-mobile (FMC). Dal 2006 nella funzione Marketing della Direzione Top Client & ICT Services, è product manager per le offerte innovative ICT wireless per la Pubblica Amministrazione ed è responsabile in particolare per l’offerta E-Tourism di cui ha seguito anche lo sviluppo della piattaforma ed i trial in campo ■ laureato presso l'INSA de Lyon (Francia) nel 2001 e ha ottenuto un Master in Telecomunicazioni presso TILS nel 2004. Ha lavorato presso Lucent Technologies in Naperville, Illinois (USA) sul testing di soluzioni VoIP end-to-end in reti wireless MAN. In Azienda dal 2001 ha partecipato successivamente allo sviluppo della suite VoIP StarSIP, alla definizione di servizi di videoconferenza Any-toAny su reti IP/UMTS, ha guidato un team per la specifica e implementazione della soluzione del Service Bus per la gestione di reti StarSIP. Dal 2006 nel progetto di Context Awareness è responsabile di un task sulla definizione di enabler context-aware, in particolare legati alla condivisione di contenuti user-generated (UGC) e al mobile advertising e ha contribuito a diversi progetti di ricerca europei IST: Mobilife, SPICE e OPUCE, di cui è tutt'ora Scientific Manager e workpackage leader. È co-autore di un libro su SIP e di articoli pubblicati in conferenze o libri ■ NotIZIaRIo tEcNIco tElEcom ItalIa - anno18 NumeroUNo2009 41 Femtocelle: la stazione radio dentro casa MOBILE G Camillo Carlini, Giulio Guerra, Alessandro Vaillant li ultimi anni hanno visto l’accesso wireless divenire sempre più pervasivo, ed efficace in termini di velocità di trasmissione. Gli enti di standardizzazione del mondo mobile (3GPP ed IEEE) hanno sviluppato diverse interfacce radio, tracciandone l’evoluzione verso throughput sempre più elevati. Sebbene le tecnologie siano etichettate con il throughput teorico di picco, in pratica le loro prestazioni dipendono dalla qualità radio e dalla concorrenza sull’accesso alla risorsa; l’avvicinamento dell’antenna di trasmissione al terminale migliora il canale radio e quindi le prestazioni effettive che il cliente può sperimentare. Le femtocelle, mini trasmettitori da installare casa per casa, limitano il cammino del segnale così riducendo la possibilità di degradazioni. L’articolo analizza il nuovo ecosistema abilitato dal paradigma di accesso femtocellulare, soffermandosi sugli scenari di servizio, sulle varianti architetturali, sugli aspetti tecnologici, affrontando i principali punti ancora aperti. 1 Cos’è una femtocella? L’ambiente indoor ha assunto grande importanza per gli operatori di rete, poiché sede di una grossa porzione del traffico mobile. Il voler supportare servizi mobili realmente broadband impone l’introduzione, in 42 aggiunta ai consueti dispiegamenti macrocellulari, di dispiegamenti micro e femtocellulari, con antenne vicine all’utente e disponibilità sulla rete di trasporto di tecnologie a larga banda (fibra nel caso di dispiegamento micro, fibra o xDSL nel caso di dispiegamenti femto). NOtIzIarIO tEcNIcO tELEcOM ItaLIa - anno18 NumeroUNO2009 Femtocelle: la stazione radio dentro casa - camillo carlini, Giulio Guerra, alessandro Vaillant Figura 1 - Descrizione Femtocella Con il termine femtocella s’intende una cella di piccole dimensioni (figura 1), quali possono essere quelle di un’unità abitativa o un ufficio. Più in generale si va ad intendere con questo termine anche l’apparato radio che genera tale cella, normalmente caratterizzato da dimensioni, costi e consumi ridotti che consentono ad un utente di essere connesso alla rete mobile attraverso un terminale mobile standard. La femtocella (alias Femto Access Point o Home NodeB), pertanto, rappresenta una stazione radio base domestica a bassa potenza ed autoinstallante, che non richiede manutenzione da parte del cliente ed è gestita a distanza dall’operatore e che, a differenza delle WLAN, trasmette su bande soggette a licenza (ad es. quelle dell’UMTS). Una femtocella è in grado di garantire la copertura 3G, sfruttando ad esempio la connet- NOtIzIarIO tEcNIcO tELEcOM ItaLIa - anno18 NumeroUNO2009 tività xDSL dell’utente, attraverso il modem a banda larga dell’utente, oppure mediante un modem integrato (figura 2). La femtocella è collegata alla Core Network mobile attraverso un AP Controller/ Concentrator, che, oltre ad aspetti di gestione e configurazione, ha anche lo scopo di mascherare alla rete radiomobile la potenziale elevata numerosità degli Access Point (che in molte soluzioni implementano le funzionalità semplificate di un RNC). La connessione tra la femtocella e il concentratore è tipicamente basata su un IPsec tunneling, che sfrutta un backhauling ADSL2+. Le prime soluzioni previste sono relative all’ambito domestico o consumer, mentre le soluzioni relative al segmento business sono attualmente in fase di consolidamento. Dal punto di vista degli operatori, i van- Figura 2 - Scenario di riferimento femtocellulare 43 Femtocelle: la stazione radio dentro casa - camillo carlini, Giulio Guerra, alessandro Vaillant taggi derivanti dall’impiego della tecnologia femto sono: • incremento della capacità di rete: come primo risultato, con il deployment di femtocelle si vanno ad attenuare tutti quei vincoli che limitavano la capacità e la copertura di rete, infatti, nel momento in cui un cliente viene servito da una femtocella dedicata, si va ad alleggerire il carico della cella macro, incrementando la capacità totale della rete dell’operatore mobile; • miglioramento della copertura indoor: in particolare per il 3G, l’utilizzo di frequenze più elevate comporta maggiori difficoltà nella penetrazione indoor con la densità attuale di celle; • potenziale diminuzione di siti macro: un alleggerimento progressivo della rete macro unito ad un rafforzamento della copertura indoor, comportano una minore necessità di installazioni di siti macro, soprattutto quelli nati per capacità o miglioramento della qualità del servizio percepito dall’utente (ad esempio in termini di throughput); • mobilità “trasparente” con la rete macro: anche se con alcune limitazioni (che saranno illustrate in seguito) è garantita la mobilità tra layer femto e macro 3G (e in alcuni casi macro 2G); • diminuzione dei costi di backhauling: il traffico della femtocella verso la Core Network viene trasportato, sfruttando la connettività IP del cliente, che può così soddisfare anche l’incremento richiesto per il supporto di nuove tecnologie come l’HSxPA; • incremento di penetrazione dei servizi di mobile broadband: con l’aumento della copertura e delle performance della banda larga wireless, i servizi mobili ad alto bit rate non potranno che beneficiarne; • utilizzo delle frequenze licenziate: lavorando su frequenze licenziate, gli operatori radiomobili acquisiscono un vantaggio competitivo; 44 • fidelizzazione del cliente attraverso offerte di tipo home zone: sfruttando la copertura radio dedicata della femtocella, limitandone l’accesso con uso esclusivo, è possibile costruire agilmente offerte appealing basate su tariffazione home zone, anche grazie ad una migliore accuratezza nell’identificazione dell’area “home” insita nelle caratteristiche di propagazione radio delle femto. Dal punto di vista del cliente i vantaggi sono: • miglioramento della copertura indoor: anche per il cliente si ha il vantaggio di poter avere a disposizione una copertura mobile “at home”; • miglioramento della “user experience” attraverso un incremento di throughput: a differenza delle macrocelle che supportano centinaia di utenti, le femtocelle serviranno un limitato numero di utenti attivi contemporaneamente. È verosimile quindi che le connessioni basate sulle femto offriranno mediamente bit rate più elevati rispetto all’ambiente macro, in quanto le risorse del nodo (potenza e codici) sono utilizzate dai soli utenti abilitati all’accesso della femto e le condizioni propagative ed interferenziali sono migliori rispetto al caso macro; • utilizzo dello stesso terminale cellulare: poiché la totalità delle femtocelle oggi disponibili fornisce una copertura di tipo 3G, il vantaggio principale che ne deriva per gli utenti è che non è necessario acquistare un dispositivo dedicato, ma si può sfruttare lo stesso terminale cellulare utilizzato per le chiamate di tipo mobile sotto rete macro. In questo modo, a differenza di altre tecnologie come UMA, dove i terminali devono necessariamente essere dedicati o eventualmente dual-mode, con una conseguente limitata disponibilità di soluzioni, si può continuare ad avere l’ampia scelta e la comodità d’uso di un dispositivo mobile standard; NOtIzIarIO tEcNIcO tELEcOM ItaLIa - anno18 NumeroUNO2009 Femtocelle: la stazione radio dentro casa - camillo carlini, Giulio Guerra, alessandro Vaillant • tariffazioni potenzialmente migliori: per l’utente finale inoltre ci possono essere tariffe più convenienti poiché l’operatore, risparmiando sui costi, può offrire tariffe più vantaggiose e competitive; • abilitazione di nuovi servizi di Home Networking: la femtocella diviene un elemento della casa del cliente e contribuisce a portare nell’ambito dei device dell’ “Home networking” (TV, Gateway utente, modem xDSL, Set of Box, ecc…) anche il terminale mobile, lo stesso impiegato in condizioni di mobilità al di fuori dell’ambiente domestico. Questo potrebbe contribuire a creare, in ottica prospettica, una famiglia di servizi che sfruttino al meglio le interazioni tra terminale mobile e device della casa grazie alla femtocella. 2 Scenari di servizio femtocellulari Di seguito sono brevemente descritti dei possibili scenari di servizio, con l’ottica di illustrare una panoramica completa sull’opportunità tecnologica offerta dalla soluzione femtocellulare. nismi di QoS, dovranno essere compatibili con l’erogazione degli stessi servizi radiomobili che il cliente è abituato ad utilizzare sotto copertura macro. La femtocella 3G infatti, è un Access Point 3G che, una volta installato, viene visto da un terminale 3G, cellulare o PC card, come una normale cella di rete. In questo scenario, il cliente è in grado di originare o ricevere chiamate (Voce, SMS o MMS o videochiamate o connessioni dati), in maniera trasparente, su rete femto o su rete macro 2G/3G in funzione dell’area di copertura in cui si trova. In tale scenario, unico requisito (radio) per l’utente, affinché riesca ad utilizzare la copertura Femto dedicata, è che disponga di un terminale mobile 3G standard, cellulare o PC card, configurato in modalità “Dualmode” o “solo UMTS”, senza alcun client ad hoc. 2.2 2.1 Scenario Consumer L’applicazione della soluzione Femto 3G in ambiente residenziale, per clientela consumer, costituisce lo scenario di servizio con disponibilità maggiormente ravvicinata, poiché è stato l’obiettivo primario nella definizione e sviluppo dell’attuale tecnologia. L’architettura di riferimento coincide con quella descritta in figura 2, nella quale si assume che il backhauling della femtocella avvenga grazie alla connessione xDSL del cliente. Le caratteristiche del trasporto in termini di banda disponibile, latenza e mecca- NOtIzIarIO tEcNIcO tELEcOM ItaLIa - anno18 NumeroUNO2009 Scenario Business/Enterprise L’applicazione della soluzione Femtocella 3G per la clientela Business, nelle due declinazioni SOHO/Large Enterprise, costituisce lo scenario di servizio più sfidante allo stato dell’attuale maturità della tecnologia. Lo scenario Business, per le sue peculiarità, non può prescindere da alcune prestazioni, quali ad esempio l’handover femto-femto, piuttosto che un maggior traffico smaltibile in termini di utenti abilitati e chiamate contemporanee, maggiore copertura... che possono effettivamente decretarne il successo o l’insuccesso. È ragionevole aspettarsi che questa architettura dovrà essere più flessibile rispetto a quella dello scenario di tipo consumer, in modo da adattarsi e integrarsi in scenari di tipo Large Enterprise, le cui dimensioni e caratteristiche richiedono quasi sempre sviluppi “tailored”. 45 Femtocelle: la stazione radio dentro casa - camillo carlini, Giulio Guerra, alessandro Vaillant 3 Si noti che nell’approccio con accesso ristretto, il numero massimo di USIM gestibili dalla white list potrebbe essere limitato sulla base delle caratteristiche del prodotto femto, analogamente a quanto avviene in termini di altre prestazioni (ad es. numero massimo di utenti/chiamate contemporaneamente gestibili dall’AP). Controllo dell’Accesso Un elemento fondamentale della tecnologia femto riguarda la modalità di accesso utenti dei vari clienti alla femtocella. In particolare, sono contemplate le seguenti modalità: • open mode, anche detta “open access”, in cui è prevista la possibilità di utilizzare l’AP femto da parte di un qualsiasi utente che lo selezioni come miglior cella servente (sulla base dei normali criteri radiomobili); • closed mode, o “exclusive access”, in cui l’accesso è consentito ai soli utenti che dispongano di USIM autorizzate sulla base di una “White List” (presente nella femtocella o nel femto Gateway), la cui creazione avverrà nella fase di sottoscrizione del servizio femto. Nello specifico, l’autorizzazione avviene attraverso un controllo dell’IMSI nel corso delle procedure per la gestione della mobilità (tipicamente Location Area Update). Se l’IMSI fa parte della lista, il Location Update viene autorizzato, altrimenti viene inviato al terminale un messaggio di Location Update Reject contenente un codice (cause number), che identifica il motivo del rifiuto. I più comuni, proposti in standard [1], sono cause number #12 (Location Area not allowed), cause number #13 (Roaming not allowed in this location area). L’utente può abilitare o rimuovere utenti dalla White List con modalità dipendenti dal paradigma di provisioning. Un utente rifiutato rimane sulla copertura macro (quando presente) a meno che non debba effettuare una chiamata di emergenza. • group mode o “semi-open”: questa tipologia di controllo dell’accesso potrebbe risultare utile per soluzioni femtocellulari di tipo Business/Enterprise ed è derivata dal modello di accesso chiuso, in cui si specificano privilegi di accesso per utenti di tipo corporate appartenenti allo stesso enterprise group. 46 4 Mobilità in idle e in connected mode Per quanto riguarda la prestazione di mobilità tipica dei servizi radiomobili, la tecnologia femto, basata sulle architetture integrate con la rete di accesso e core mobile, prevede che in idle-mode sia garantita la cell re-selection bidirezionale tra femto e macro 3G (e in principio anche macro 2G). In connected mode (cioè in presenza di chiamate voce/dati) è tipicamente supportato l’handover tra femto e macro 3G (e in alcune soluzioni anche macro 2G) nella direzione uscente (hand out): femto→macro 3G o 2G. Nel caso di chiamata originata su rete macro 3G o 2G, quando il cliente entra in copertura femto continua ad utilizzare la rete macro 3G o 2G sino al termine della chiamata. Una volta chiusa la chiamata (o connessione dati) il terminale del cliente effettua una cell re-selection automatica, per accamparsi sulla rete femto. La mobilità femto↔femto risulta invece di maggior interesse nel caso di accesso open mode ed in particolare per soluzioni di tipo “Enterprise”. 5 Coesistenza con la rete macrocellulare La coesistenza tra layer macro e femtocellulare (nel caso di controllo di accesso NOtIzIarIO tEcNIcO tELEcOM ItaLIa - anno18 NumeroUNO2009 Femtocelle: la stazione radio dentro casa - camillo carlini, Giulio Guerra, alessandro Vaillant esclusivo) rappresenta sicuramente uno dei maggiori punti di attenzione relativi al deployment femto. In particolare l’aspetto interferenziale deve essere tenuto attentamente in considerazione, qualora si scelga di utilizzare una portante condivisa dai due layer. L’utilizzo di portanti dedicate rende infatti trascurabile, in gran parte dei casi, le problematiche interferenziali. Di seguito vengono presentati alcuni dei principali problemi interferenziali che potrebbero manifestarsi sulla tratta downlink (nel caso di interferenza co-canale). Nelle seguenti illustrazioni viene indicato con “C” il segnale utile, mentre con “I” quello interferente. • interferenza da macro verso femto: le performance di un utente “femto” connesso all’AP (figura 3) in alcune condizioni potrebbero essere degradate dalla presenza di una stazione radio base macro interferente sulla stessa portante. • interferenza da femto verso macro e deadzone: nel caso di accesso esclusivo, è probabile che le performance di un utente ”macro” indoor (non autorizzato sull’AP) connesso alla stazione radio base esterna risentano dell’interferenza generata dall’AP sulla stessa portante (figura 4). In questo scenario, in prossimità dell’AP è possibile individuare un’area all’interno della quale l’utente “macro” indoor (non autorizzato) non può accedere al servizio, a causa di un eccessivo livello interferenziale. Quest’area, che nel caso di deployment su una stessa portante può raggiungere le dimensioni di alcune decine di metri, viene tipicamente chiamata dead zone e rappresenta pertanto un buco di copertura macro (sulla stessa portante della femto) per utenti non autorizzati (figura 5). Nella deadzone un utente macro non abilitato riseleziona, quando disponibili, un’altra portante 3G oppure la rete GSM. Le femtocelle possono disporre di algoritmi di autotuning della potenza, che hanno lo scopo di controllare e minimizzare i fenomeni interferenziali. Figura 3 - Interferenza macro verso femto per un cliente “femto” Figura 4 - Interferenza femto verso macro per un cliente “macro” Figura 5 - Deadzone 6 NOtIzIarIO tEcNIcO tELEcOM ItaLIa - anno18 NumeroUNO2009 Architettura L’architettura di supporto al deployment degli Home NodeB 3G (3G HNB) deve garantire un’integrazione efficace con la rete mobile esistente e l’implementazione di un insieme di funzionalità specifiche per l’accesso femtocellulare. Per quanto riguarda l’integrazione con la rete mobile, uno dei requisiti principali con- 47 Femtocelle: la stazione radio dentro casa - camillo carlini, Giulio Guerra, alessandro Vaillant siste nel realizzare l’interconnessione tra accessi femto e rete core con soluzioni il più possibile trasparenti alla seconda, ossia mascherando la numerosità degli HNB ed evitando impatti sulle interfacce Iu verso i nodi di Core Network. Questo avviene attraverso l’introduzione di un HNB GW (Home NodeB Gateway) che si interfaccia alla rete core come un RNC standard. Ulteriori requisiti di integrazione con la rete mobile che hanno un impatto sul design dell’architettura femtocellulare sono il supporto delle funzionalità di: • charging: ragionevolmente occorre definire soluzioni di tariffazione ad hoc del traffico originato da rete femto; • mobilità tra accessi femto e macro; • emergency call; • lawful interception; • gestione efficiente del traffico, in particolare per quanto riguarda scenari di switching locale del traffico, ad esempio scenari “campus” ed in generale per l’instradamento del traffico di navigazione su Internet. La rete di accesso femtocellulare, inoltre, deve supportare funzionalità specifiche, allo scopo di consentire il deployment in rete degli HNB in modalità plug&play e fornire meccanismi efficienti di controllo dell’accesso e della mobilità in rete femto in idle ed active mode, dunque soluzioni di: • UE Registration, ossia meccanismi attraverso i quali uno UE si registra presso la rete di accesso femtocellulare (in dettaglio presso l’HNB GW), a valle dell’accesso ad una femtocella. La registrazione presso l’HNB GW consente, ad esempio, l’implementazione di politiche di Acces Control e soluzioni di paging optimisation; • HNB Registration, ossia meccanismi attraverso i quali, all’accensione di un HNB e a valle della procedura di discovery di un opportuno Serving HNB GW, l’HNB si registra presso tale GW; • HNB GW Discovery, ossia meccanismi attraverso i quali l’HNB, a valle dell’accen- 48 sione, individua l’HNB GW al quale collegarsi nello stato operazionale; • HNB Location verification, ossia meccanismi attraverso i quali l’operatore verifica che l’HNB venga accesso solo in una location autorizzata. Inoltre la rete di accesso femtocellulare pone requisiti specifici in termini di sicurezza, poiché occorre garantire soluzioni di: • autenticazione ed autorizzazione dell’HNB (eventualmente mutua autenticazione tra HNB e rete mobile); • sicurezza della connessione tra HNB e rete dell’operatore (confidenzialità ed integrità dei dati). Infine, si possono porre ulteriori requisiti secondo le specifiche caratteristiche della rete dell’operatore presso cui viene effettuato il deployment della rete di accesso femto come, ad esempio, soluzioni di supporto della QoS e di multiplazione del traffico d’utente. 6.1 Lo standard 3GPP La figura 6 descrive l’architettura di rete di accesso femtocellulare secondo quanto incluso nello Stage 2 di Release 8 [13], definito dal 3GPP RAN WG3, dove le entità di rete introdotte e le relative funzioni sono: • HNB: implementa le funzioni di NodeB ed RNC. Supporta l’interfaccia Uu verso lo UE, l’interfaccia Iu-h (Control Plane e User Plane) verso l’HNB GW e l’interfaccia di gestione verso l’HMS (Home Management System) per le funzioni di provisioning dei parametri di configurazione, di HNB GW Discovery e Location verification. • HNB GW: rappresenta l’entità di collegamento tra 3G HNB e la rete core mobile. Oltre a rappresentare un punto di raccolta del traffico femtocellulare, svolge le funzioni di: NOtIzIarIO tEcNIcO tELEcOM ItaLIa - anno18 NumeroUNO2009 Femtocelle: la stazione radio dentro casa - camillo carlini, Giulio Guerra, alessandro Vaillant ○ supporto dell’interfaccia Iu-h verso l’HNB e delle interfacce Iu-CS e Iu-PS verso la rete core mobile; ○ relay (ed in alcuni casi interlavoro di alcuni parametri) della segnalazione tra HNB e rete core; ○ relay dello User Plane GTP; ○ supporto delle procedure di HNB Registration e UE Registration su interfaccia Iu-h. • Security Gateway (SeGW): supporta le procedure di autenticazione dell’HNB e messa in sicurezza dell’interfaccia Iu-h e dell’interfaccia verso l’HMS. Come opzione implementativi tale funzione può essere integrata nel Security Gateway. • HNB Management System (HMS): basato sulla famiglia di standard TR-069 svolge le funzioni di provisioning dell’HNB, di discovery dell’HNB GW e Location verification. Nella procedura di bootstrap dell’HNB, l’HMS comunica all’HNB i nodi di rete serving: provisioning HMS (eventualmente diverso da quello di bootstrapping), SeGW, HNB-GW. Per quanto riguarda le funzioni di Control Plane, l’interfaccia Iu-h supporta due Application Part differenti in corrispondenza di due diversi set di funzioni ed in particolare: • il RANAP, per la consueta segnalazione di controllo tra rete di accesso e core ed il trasporto del NAS. A tale scopo è stato definito un livello di adattamento (RUA, RANAP User Adapatation) per il trasferimento trasparente dei messaggi RANAP; • l’HNBAP (Home NodeB Application Part), Figura 6 - architettura delle rete di accesso femtocellulare (tS 25.467) NOtIzIarIO tEcNIcO tELEcOM ItaLIa - anno18 NumeroUNO2009 per le procedure femtocellulari descritte in precedenza (UE Registration, HNB Registration). La procedura di UE Registration include la funzione di verifica delle credenziali di accesso dello UE presso l’HNB (funzione di Access Control). Occorre distinguere due casi: ○ UE pre-Release 8. In questo caso l’Access Control è svolto in rete di accesso femtocellulare e viene gestito in modo mandatorio dall’HNB GW ed opzionalmente dall’HNB. L’Access Control si basa sulla verifica dell’inclusione dell’IMSI, che sta effettuando l’accesso in un’opportuna White List di IMSI. Tale soluzione, tipicamente basata su procedure NAS esistenti (LAU), è definita per non determinare alcun impatto sugli UE; ○ UE Release 8. In questo caso l’Access Control è svolto tra UE e rete core (MSC ed SGSN), in modo trasparente alla rete di accesso ed è basato sul principio del CSG (Closed Subscriber Group). Ogni HNB annuncia in broadcast il proprio CSG-ID e ciascuno UE ha configurati i CSG-ID autorizzati. Dunque uno UE tenta di accedere solo agli HNB che annunciano un CSG-ID, per il quale lo UE è autorizzato. La rete effettua un cross check in rete core (MSC, SGSN), dove è presente il profilo di utente che include la white list di CSG per i quali lo UE è autorizzato ad accedere. In tal modo si definisce una soluzione efficiente, che effettua principalmente il relay dei messaggi RANAP da/verso Core Network (dunque senza alcun impatto verso la rete core ed il riutilizzo di una tecnologia esistente) e prevede una soluzione ad-hoc per le procedure specifiche dell’ambiente femtocellulare. Lo standard 3GPP di Release 8 include le specifiche del RUA [14] e dell’HNBAP [15]. 49 Femtocelle: la stazione radio dentro casa - camillo carlini, Giulio Guerra, alessandro Vaillant 6.2 Cosa accade nel Femto Forum? La figura 7 riporta l’architettura logica definita dal Femto Forum 1 con focus sulla rete di accesso femtocellulare. L’architettura è allineata con quella 3GPP, mentre la diversa nomenclatura per interfacce ed entità logiche risponde all’esigenza di definire un’architettura generale e valida per tecnologie di accesso/sistemi diversi (HSPA, cdma2000, WiMAX); in particolare: • il FAP (Femto Access Point) e l’interfaccia Fa corrispondono, per gli accessi 3GPP, al 3G HNB ed all’interfaccia Iu-h, rispettivamente. In figura 7 è riportata anche l’eventuale interfaccia (FL) verso l’Home GW. Anche presso il Femto Forum è stata concordata la working assumption di collocare le funzioni di RRM presso il FAP 2. • Il Femto GW corrisponde, per gli accessi 3GPP, al 3G HNB GW. In figura 7 sono riportate anche le interfacce verso il Femto Management System (Fm, Fg), per la gestione e la configurazione della rete di accesso femto, la funzione di SeGW (Security GW), per le funzioni di autenticazione del 3G HNB (ad esempio con soluzione EAP-SIM/AKA) e di sicurezza dell’interfaccia Iu-h, ed infine l’interfaccia logica (Fb-ims) di interconnessione verso il controllo IMS per la gestione dei servizi negli scenari PS only, ad esempio quelli WiFi like. Le interfacce Fa, Fb-cs e Fb-ps in figura 7, corrispondono alle interfacce Iu-h, Iu-cs, Iu-ps, rispettivamente. Il Femto Forum supporta l’architettura definita dal 3GPP per gli accessi 3G e lo stack protocollare dell’interfaccia Iu-h. Figura 7 - architettura di riferimento (fonte: Femto Forum) 1 Il Femto Forum (http://www.femtoforum.org) è dedicato alla definizione di soluzioni per reti femtocellulari e raggruppa le manifatturiere di soluzioni femto oltre ai principali operatori e Vendor dell’ecosistema mobile; presumibilmente sarà riconosciuto a breve come Marketing Representative Partner (alla stregua della GSMA). 2 In [5] il Femto Forum comunica che “If the technology has RNC functionality the majority of the RNC functionality shall be in the FAP to optimise the signalling between the FAP and the gateway”. 50 NOtIzIarIO tEcNIcO tELEcOM ItaLIa - anno18 NumeroUNO2009 Femtocelle: la stazione radio dentro casa - camillo carlini, Giulio Guerra, alessandro Vaillant 6.3 Plane IP d’utente) e non attraverso l’interfaccia Iu-h. Questa soluzione, può essere di interesse per l’ottimizzazione del trasporto del traffico dati, in particolare in scenari Corporate, o per scenari di convergenza fisso mobile. La possibilità di ottimizzare l’instradamento del traffico di utente nei casi in cui non è necessario che fluisca verso la Core Network mobile, sta spingendo i produttori di femtocelle a studiare modalità implementative, pur rimanendo sulla soluzione architetturale con interfaccia Iu-h, della funzionalità aggiuntiva di “offload del traffico”. Infine, per quanto riguarda le soluzioni Iub based, queste sono state citate per completezza, ma l’ipotesi di lavoro sia del 3GPP sia del Femto Forum sulla collocazione dell’RRM all’HNB rende tali soluzioni di tipo proprietario, non potendo in linea di principio garantire l’interoperabilità tra HNB e HNB Gateway di vendor differenti. Cenni alle varianti architetturali Nelle discussioni nei gruppi di standard (RAN 3) e di lobby (Femto Forum) sono state analizzate diverse opzioni relative all’architettura di accesso femtocellulare. Tali opzioni derivano dalla diversa collocazione delle funzionalità nelle entità di rete e dall’utilizzo di diverse opzioni protocollari sull’interfaccia tra HNB e HNB GW. Le soluzioni maggiormente discusse e/o testate, classificate per soluzione di collegamento degli HNB verso i GW, sono state: • Iu based; • GAN-Iu based; • Iub based; • WiFi like o Native-IP based. Altre soluzioni (Gn-based, SIP/IMS based) rappresentano varianti di quelle elencate. In realtà anche le soluzioni GAN based sono state classificate nello standard 3GPP come una variante delle soluzioni Iu, tuttavia l’orientamento attuale dei lavori rende il loro approfondimento superfluo ai fini della presente trattazione. Ad ogni modo è necessario considerare che alcune di queste soluzioni, proposte dai vendor in ambito di standardizzazione, risalgono a discussioni antecedenti alla definizione della interfaccia Iu-h da parte del 3GPP. Come illustrato nel paragrafo precedente, il 3GPP ha definito come architettura standard una soluzione di tipo Iu-based, che incorpora alcuni elementi del GAN all’interno del protocollo HNBAP (Iu-h). Pertanto si può ragionevolmente ipotizzare che le soluzioni commerciali nel medio-lungo termine saranno compliant allo standard 3GPP (e dunque basate sul modello Iu), in modo da fornire un’effettiva possibilità di integrazione con HNB multivendor. È opportuno aggiungere qualche informazione sulla variante WiFi like o Native IP Based: in questo scenario l’HNB si interconnette alla rete dell’operatore direttamente attraverso l’interfaccia Gi (dunque con lo User 7 NOtIzIarIO tEcNIcO tELEcOM ItaLIa - anno18 NumeroUNO2009 Caratteristiche tecniche del Femto Access Point Come visto il FAP è una piccola stazione radio base da collocare a casa cliente, a bassa potenza e di ingombro comparabile a quello di un Access Point in tecnologia WiFi. Si collega tramite cavo Ethernet standard IEEE 802.3 all’Home Gateway impiegato dall’utente per la connessione broadband di rete fissa. Per quanto concerne l’interfaccia radio, un riferimento sui possibili range di potenza e di sensibilità è fornito dal 3GPP [1], dove viene proposta una nuova classe di base station (della quale non sono stati ancora finalizzati tutti gli aspetti), i cui parametri radio sono stati ricavati a partire dalla classe di local base station della [16]. In particolare lo standard attualmente prevede, anche se non ancora consolidata, un max output power di 20 dBm. 51 Femtocelle: la stazione radio dentro casa - camillo carlini, Giulio Guerra, alessandro Vaillant Per offrire un’ottima copertura indoor, 20 dBm di output power possono essere considerati perfino eccessivi in un appartamento di medie dimensioni, se la copertura indoor macro è “debole” (e sarebbero fonte di eccessiva interferenza). Viceversa in buona copertura macro, 15-20 dBm possono essere utili, specie se si intende coprire più di una stanza. Più in generale, per essere idonei ad ogni tipo di situazione, i FAP dispongono tipicamente di una massima potenza di trasmissione sufficientemente alta (es. 15-20 dBm) combinata con un meccanismo di auto-tuning (vedi 7.1), che cerchi di limitare le interferenze con la rete macro ed altri eventuali FAP. Si comprende che il dimensionamento della potenza massima in uscita è uno degli aspetti cruciali dell’implementazione del FAP; l’obiettivo è appunto trovare il miglior compromesso tra copertura radioelettrica offerta nell’ambiente domestico del cliente e contenimento dei fenomeni interferenziali. Per quanto riguarda la sensibilità in ricezione dei FAP, il 3GPP [1] suggerisce come riferimento il valore di -107 dBm (lo stesso della local base station class della 3GPP [16]). Lo standard prevede una desensibilizzazione delle BTS indoor, in quanto i terminali in area indoor sperimentano una minore attenuazione nella tratta UL. Il valore di -107 dBm/3.84 MHz, pur essendo di 14 dB degradato rispetto al corrispondente valore macro (wide area BS) [16] è pertanto preferibile per i FAP, anche al fine di evitare che la femtocella senta utenti lontani e fuori dall’area domestica del proprietario. Per chiarezza sono di seguito riportate le Tabella 1 e Tabella 2, riassuntive dei principali parametri radio accordati per l’Home NodeB; si noti, come già anticipato, il buon allineamento con i parametri delle local area BS con l’eccezione di alcuni valori, tra cui, oltre la già citata classe di potenza, anche il requisito di accuratezza sulla frequenza, rilassato da 100 ppm a 250 ppm. Il maggior errore tollerato sulla rilevazione della frequenza portante ha un impatto diretto sui requisiti di mobilità, limitando, in quest’ultimo caso, la velocità massima dell’utente HNB a poco sopra i 30 km/h. Tuttavia, conside- tabella 1 - HNB: Parametri radio in trasmissione [3GPP tr 25.820 V8.0.0] Parametro Potenza massima in uscita Controllo della potenza in uscita 52 HNB Local Area BS 20 dBm 24 dBm [20dBm–0dBm] Errore massimo in frequenza 250 ppb 100 ppb Emissioni spurie (Protezione del ricevitore dalle proprie o altrui emissioni) -82 dBm -82 dBm Emissioni spurie (Coesistenza con BS vicine) -70 dBm -82 dBm -70 dBm (pico 900/850) -82 dBm Emissioni spurie (Coesistenza con UTRA-TDD) -55 dBm -55 dBm NOtIzIarIO tEcNIcO tELEcOM ItaLIa - anno18 NumeroUNO2009 Femtocelle: la stazione radio dentro casa - camillo carlini, Giulio Guerra, alessandro Vaillant Parametro HNB Local Area BS Livello di sensibilità -107 dBm -107 dBm ACS -38 dBm -38 dBm Blocking Requisito minimo -101 dBm -101 dBm (interferenze varie) Blocking Requisito minimo - Coesistenza con GSM900, DCS 1800, PCS1900, GSM850 e/o UTRA FDD -115 dBm -115 dBm Blocking Requisito minimo - Coesistenza con UTRA-TDD -101 dBm -101 dBm Blocking Requisito minimo - Coesistenza con DECT, WiFi/WLAN [nuovo valore da definire] Intermodulazione -38 dBm (wideband) -37 dBm (narrowband) -38 dBm (wideband) -37 dBm (narrowband) tabella 2 - HNB: Parametri radio in ricezione [3GPP tr 25.820 V8.0.0] rando lo scenario domestico (home zone), questa limitazione non è ritenuta avere impatti significativi. Per quanto riguarda i Radio Access Bearer, benché la capacità possa dipendere dallo scenario di applicazione del prodotto (soluzione business o consumer), ciò che è importante è che l’utente disponga degli stessi RAB disponibili nella rete macro. Per questo motivo è ragionevole attendersi il supporto dei RAB CS (voce AMR e video chiamata) e PS legacy (DCH e HSDPA/HSUPA) insieme ad alcuni dei principali multiRAB PS+CS. 7.1 Installazione e autoconfigurazione del FAP L’installazione di un Femto Access Point dovrebbe essere basata su logiche di tipo NOtIzIarIO tEcNIcO tELEcOM ItaLIa - anno18 NumeroUNO2009 plug&play tese a minimizzare la necessità di intervento sia da parte del cliente/proprietario, sia da parte dell’operatore (ad esempio al livello di O&M). Un possibile esempio di processo di autoconfigurazione potrebbe ad esempio essere: • selezione della portante FDD (UARFCN): il FAP sceglie automaticamente la portante meno interferita; • selezione del Primary Scrambling Code (PSC): il FAP sceglie il PSC meno interferito; • autotuning della potenza trasmessa in downlink: finalizzato ad ottimizzare il tradeoff tra copertura ed interferenza; • scelta dei parametri identificativi della cella: ad es cell-ID, LAI, RAI; • definizione della lista di adiacenze per la mobilità (in idle mode e, se prevista, in connected mode) verso la rete macrocellulare. Si riportano di seguito alcune considerazioni relativamente agli aspetti del processo di autotuning, che hanno maggiore impatto 53 Femtocelle: la stazione radio dentro casa - camillo carlini, Giulio Guerra, alessandro Vaillant sui meccanismi di interlavoro e di coesistenza con la rete macrocellulare UMTS. Per quanto riguarda l’autoconfigurazione dei PSC è di fondamentale importanza la determinazione del set di PSC riservati alle femtocelle, che nasce da un trade-off tra le seguenti condizioni: • tanto minore è il numero dei PSC riservati alle femtocelle, tanto maggiore è la probabilità che due FAP mutuamente interferenti utilizzino lo stesso PSC (situazione critica dal punto di vista dell’intereferenza tra FAP dello stesso operatore in trasmissione sulla stessa portante FDD). Di conseguenza una crescente penetrazione di femtocelle (in particolare in ambito residenziale) porta ad una necessità di un numero di PSC riservati sempre maggiore; • tanto maggiore è il numero dei PSC riservati alle femtocelle, tanto maggiore è l’impatto sulla pianificazione della rete macrocellulare. L’autotuning della potenza in downlink assume particolare rilevanza nel caso in cui i FAP operino su una portante già utilizzata dalle macrocelle UMTS. In particolare, tanto maggiore è il livello di interferenza prodotto dalle macrocelle, tanto maggiore è il livello di potenza trasmessa dalla femtocella necessaria a garantire la copertura nell’area indoor target (costituita da una o più stanze). A valori più elevati di potenza corrisponde, d’altra parte, una più ampia “deadzone” (zona di assenza di servizio sulla portante utilizzata dalla femtocella le cui dimensioni dipendono, in prima approssimazione, dal mutuo rapporto di potenza tra cella macro e femto in quell’area) per gli utenti non abilitati all’accesso alla femtocella. Le procedure di autotuning richiedono la disponibilità, lato FAP, di misure relative alle caratteristiche delle celle che il FAP stesso riconosce come interferenti (macrocelle o altri FAP). Tali misure possono essere ricavate secondo due diversi approcci: • il FAP raccoglie le misure dei terminali (connessi al FAP stesso): i terminali ripor- 54 tano (coerentemente allo standard) i PSC delle celle misurate, le misure di RSCP ed Ec/No ad essi corrispondenti; • il FAP è dotato di uno “sniffer”, ossia di uno scanner UMTS (in grado di effettuare misure di RSCP, RSSI, Ec/No, di individuare i PSC interferenti ed eventualmente anche di decodificare le System Info delle celle misurate), simile a quello tipicamente integrato nei terminali mobili. 7.2 Sincronizzazione In questo paragrafo si vogliono segnalare alcune possibilità implementative e problematiche connesse al tema della sincronizzazione degli Home NodeB con il resto dell’architettura femto-cellulare e la rete macro. Gli Home NodeB richiedono una precisa sincronizzazione con il resto degli elementi della Core Network per consentire il corretto funzionamento della rete relativamente agli aspetti di mobilità. Tale sincronizzazione è in genere garantita da opportuni clock server dispiegati in rete (altre possibilità potrebbero essere la sincronizzazione tramite GPS – difficoltosa però in ambiente indoor – oppure la lettura del canale SCH-Sync Channel) della macro cella, cui è sottesa la femtocella, nell’ipotesi in cui la femtocella sia in copertura. Con la sincronizzazione tramite clock server è necessario quindi valutare la varianza della precisione in funzione del jitter sulla rete IP di backhauling e i requisiti minimi da soddisfare per garantire un adeguato livello di affidabilità del clock; in particolare, è importante quindi individuare le location più adatte (a livello di DSLAM, B-NAS, FAP concentrator), per il dispiegamento dei clock server, che garantiscano una certa affidabilità e qualità della sincronizzazione, minimizzando allo stesso tempo il numero di clock server impiegati. NOtIzIarIO tEcNIcO tELEcOM ItaLIa - anno18 NumeroUNO2009 Femtocelle: la stazione radio dentro casa - camillo carlini, Giulio Guerra, alessandro Vaillant traffico voce CS, secondo la prassi Iu-CS over IP (prassi corrente fino alla completa definizione dello standard Iu-h). Il tipico esempio della Tabella 3, riferito a un caso di backhauling su linea ADSL, mostra alcune peculiarità della tecnologia femto. Nell’incapsulamento del traffico voce non vi è conversione di codec; il FAP instaura un tunnel cifrato con l’HNB Gateway, mediante lo standard IPsec (protocollo IKE per lo scambio delle chiavi e protocollo ESP per garantire la confidenzialità, integrità ed autenticità dei dati trasportati [11]). Il ricorso al tunnel IPsec tra FAP e HNB Gateway fonda il suo presupposto sul modello di dispiegamento femtocellulare realizzabile da un operatore mobile con backhauling su una Backhauling rete fissa che l’operatore mobile non può controllare e deve necessariamente consiOccupiamoci adesso di come i FAP posderare untrusted. sono incapsulare il traffico originato dai terNel caso di operatore convergente che geminali accampati, per il backhauling verso stisca anche la rete fissa, facciamo notare Core Network. Riportiamo in Tabella 3 una che tecniche di sicurezza normalmente imtipica pila protocollare di encapsulation di plementate dall’operatore potrebbero rendere opzionale l’impiego di tabella 3 - Esempio di pila protocollare IPsec, il quale comporta un notedi encapsulation di traffico voce cS vole overhead nello stack di Dimensione del Tabella 3. Livello pacchetto (byte) L’opportunità della cifratura dei dati inviati e ricevuti dal FAP può Payload codec AMR 12.2, 20 ms 30.5 essere considerata anche dal seRTP 12 guente punto di vista: nella rete macrocellulare è garantita la sicurezza UDP 8 dei dati sia nella tratta di accesso IP interno 20 radio in aria, sia nella tratta tra NodeB e RNC. Con riferimento alle ESP 50 architetture dove il FAP integra UDP (NAT traversal, RFC 3948) 8 anche funzionalità di RNC, per analogia al caso macro il FAP doIP esterno 20 vrebbe comunque inviare e PPP + PPPoE 8 ricevere dati cifrati, perché altriEthernet 18 menti all’interno della LAN a casa cliente esisterebbe la possibilità di LLC/SNAP 8 intercettare informazioni “in chiaro”. AAL5 8 In ogni caso, per avere un’indicazione quantitativa, l’occupazione di ATM 20 banda di una chiamata voce tra- Come protocolli di sincronizzazione tra i clock server e gli HNB, opzioni tipiche sono il protocollo IEEE1588 [10] o l’NTP [9]; l’IEEE 1588 richiede sugli apparati di rete dell’hardware specifico, per cui è più comune l’utilizzo del protocollo NTP. L’HNB può richiedere una sincronizzazione continua al clock server o, in alternativa, essere dotato di un oscillatore locale con una buona stabilità (ad esempio non inferiore ad una settimana) e richiedere una sincronizzazione periodica (per esempio una volta ogni 4 giorni). 7.3 NOtIzIarIO tEcNIcO tELEcOM ItaLIa - anno18 NumeroUNO2009 55 Femtocelle: la stazione radio dentro casa - camillo carlini, Giulio Guerra, alessandro Vaillant sportata su un backhaul xDSL secondo Tabella 3 è all’incirca di 80 kb/s. Si noti che l’adozione del layer “RFC 3948” [14] è resa obbligatoria dal fatto che moltissimi Home Gateway, cui potrebbero essere connessi i FAP, applicano meccanismi di NAT. Un altro aspetto interessante per l’architettura femto è il remote management dei FAP a casa cliente; il concept femto tende a minimizzare l’intervento da remoto del gestore, ma il FAP deve essere telegestibile dall’operatore al pari degli altri dispositivi del cliente. Nel luglio 2008 il Femto Forum ha annunciato che i suoi membri hanno deciso di adottare il Broadband Forum TR-069 “CPE WAN Management Protocol” come base per le procedure di telegestione dei FAP. Femto Forum e Broadband Forum hanno quindi cominciato a collaborare per definire estensioni a TR-069 specifiche per le funzionalità dei FAP, e per includere l’O&M delle femtocelle in un framework ben consolidato. 8 I punti aperti della tecnologia Accanto ai numerosi vantaggi derivanti dall’adozione della tecnologia femtocellulare, ci sono una serie di problematiche che vanno prese in considerazione derivanti dall’inserimento in una rete pre-esistente. In primo luogo, essendo tali dispositivi orientati alla realizzazione di una copertura capillare indoor, è lecito prevedere, da parte del generico operatore un deployment su larga scala, a differenza della quantità di NodeB attualmente presente in una rete macro. La potenziale numerosità delle femtocelle rende pertanto necessario integrare in rete nuovi elementi controllori, in grado di mascherare tale numerosità, come analizzato nel paragrafo sulle architetture di rete. Inoltre, dal punto di vista dello standard, attualmente sono molte le decisioni già prese ed i nodi tecnologici sciolti; tuttavia il percorso 56 che conduce ad uno standard completo non si è concluso e si stima che le prime specifiche 3GPP potranno essere disponibili nel corso del 2009. Nel biennio 2009-2010, pertanto, potranno iniziare le prime installazioni commerciali di soluzioni interamente standard a cura dei grandi operatori europei. Infine, i problemi tecnologici ancora aperti riguardano aspetti del sistema, che spaziano dall’O&M, alla gestione della risorsa radio, alla gestione della mobilità. Richiamiamo alcuni tra i principali: Aspetti di integrazione in rete • coesistenza layer femto vs. layer macro per interferenza (soprattutto nel caso di utilizzo della stessa portante radio); • modalità di dispiegamento della tecnologia in funzione degli scenari di servizio abilitati (PLMN, LAC, frequenze, parametri radio) e del paradigma di controllo d’accesso (es open o closed); • garanzia di portabilità dell’intero parco di servizi mobili del generico operatore; • ingegnerizzazione della soluzione per la gestione di problematiche quali la scalabilità, la ridondanza, la ripartizione del traffico da smaltire in rete; • le verifiche di interoperabilità in ambiente multivendor; • i processi di provisioning ed assurance del servizio. Handover • anche nella prospettiva di medio termine, mentre è ragionevole che tale funzionalità sia assicurata nella direzione da femtocella a macrocella, l’handover da macrocella a femtocella, o handover tra femtocella e femtocella, presentano vincoli implementativi che la possono limitare, eventualmente, solo a specifici scenari di servizio (clientela corporate/business). Controllo d’accesso • le soluzioni di controllo dell’accesso per terminali pre-Release 8 non sono ottimizzate, NOtIzIarIO tEcNIcO tELEcOM ItaLIa - anno18 NumeroUNO2009 Femtocelle: la stazione radio dentro casa - camillo carlini, Giulio Guerra, alessandro Vaillant essendo state definite per ambienti con accessi di tipo “open” (macro, micro, pico). Per implementare l’access control per una femtocella una tipica soluzione si ha con la gestione della mobilità in idle mode: ad ogni femtocella è assegnata una specifica Location Area. Gli utenti non abilitati all’accesso ricevono una risposta di Reject in fase di Location Area Update e, come effetto, non potranno accamparsi su tali Home NodeB. Questi meccanismi possono tuttavia presentare dei comportamenti differenti a seconda del terminale e in funzione della configurazione di rete e quindi richiedono una particolare attenzione da parte dell’operatore. D’altro canto le nuove soluzioni di controllo per terminali di Release 8 sono ancora in via di completamento in standard; in ogni caso queste non possono essere retrocompatibili con i terminali compliant alle Release precedenti dello standard, pertanto occorrerà mantenere anche le soluzioni sub-ottime di controllo d’accesso. Qualità del Servizio • le femtocelle introducono nuove problematiche per la gestione della QoS dovute alla condivisione del trasporto con altri dispositivi connessi alla xDSL del cliente. Al contrario delle reti 2G e 3G legacy dove il trasporto era dedicato, nel paradigma femtocellulare si pone il problema di un’opportuna gestione delle classi di servizio in un (possibile) scenario di coesistenza tra servizi fissi e servizi mobili. Allo scopo di garantire la QoS anche a livello di backhauling, è necessario definire opportune priorità tra traffico di tipo “fisso” e “mobile” così come tra traffico voce e dati. 9 ambienti indoor e per incrementare il bit rate offerto al singolo cliente, e, come abbiamo visto nell’articolo, comportano inoltre molteplici benefici. Esse si prestano a favorire lo sviluppo dell’ecosistema domestico della banda larga e dell’utilizzo di servizi BWA fruibili da terminali mobili sempre più completi. La maturità della tecnologia potrebbe permettere i primi deployment commerciali di femtocelle tra questo anno ed il prossimo. Tuttavia la tecnologia femtocellulare è chiamata a superare le sfide della piena standardizzazione e dell’integrazione nelle reti reali degli operatori (anche per gli aspetti interferenziali). L’operatore convergente che introdurrà questa tecnologia dovrà, per soddisfare le aspettative degli utenti, porre particolare attenzione nella gestione del backhaul (xDSL o fibra) a disposizione della femtocella, per garantire ad essa e a tutti i servizi domestici del cliente la miglior QoS. A Conclusioni Le femtocelle sono state concepite per migliorare la qualità dell’accesso radio negli NOtIzIarIO tEcNIcO tELEcOM ItaLIa - anno18 NumeroUNO2009 CRONIMI 3GPP APN BWA CPE CS DCH DL EIRP 3rd Generation Partnership Project Access Point Name Broadband Wireless Access Customer Premises Equipment Circuit Switched Dedicated CHannel Down Link Effective Isotropically Radiated Power FAP Femto Access Point FDD Frequency Division Duplexing GAN Generic Access Network HNB Home NodeB HSDPA High Speed Downlink Packet Access HSPA High Speed Packet Access HSUPA High Speed Uplink Packet Access IMSI International Mobile Subscriber Identità 57 Femtocelle: la stazione radio dentro casa - camillo carlini, Giulio Guerra, alessandro Vaillant LAC NAS PS PSC QoS RAB RANAP Location Area Code Non Access Stratum Packet Switched Primary Scrambling Code Quality of Service Radio Access Bearer Radio Access Network Application Part RRM Radio Resource Management RSCP Received Signal Code Power SAC Service Area Code UE User Equipment UL Up Link UMA Unlicensed Mobile Access UMTS Universal Mobile Telecommunications System WCDMA Wideband Code Division Multiple Access B IBLIOGRAFIA [1] 3GPP TR 25.820 V2.0, 3G Home NodeB Study Item Technical Report (Rel. 8) [2] 3GPP TS 25.304 User Equipment (UE) procedures in idle mode and procedures for cell reselection in connected mode. [3] 3GPP TR R3.020 “Home (e)NodeB; Network aspects - (Release 8)” [4] Femto Forum: WG3 Network & Interoperation Architecture Evolution (March 2008) [5] Femto Forum WG 3 “LS to 3GPP2 on Femto Reference Architecture” [6] R3-080698 “3G HNB Access Network Consideration Architecture Considerations” Kineto, NEC, Motorola [7] R3-080105 “GAN Variant of Iu-based 3G HNB architecture” Kineto, NEC, Motorola [8] R3-080605 “Comparison between GAN and Iu-based variants” Alcatel Lucent, Huawei [9] RFC 1305, “Network Time Protocol Specification, Implementation and Analysis”, IETF, Marzo 1992 [10] IEEE Standard 1588, “Precision Clock Syn chronization Protocol for Networked Measurement and Control Systems”, IEEE Institute, Gennaio 2005 [11] RFC 4301, “Security Architecture for the Internet Protocol”, IETF, Dicembre 2005 [12] RFC 3948, “UDP Encapsulation of IPsec ESP Packets”, IETF, Gennaio 2005 [13] 3GPP TS 25.467 V8.0.0, UTRAN architecture for 3G Home NodeB Stage 2 (Rel. 8) [14] 3GPP TS 25.468 V8.0.1, UTRAN Iuh Interface RANAP User Adaption (RUA) signalling (Rel. 8) [15] 3GPP TS 25.469 V8.0.0, UTRAN Iuh interface Home Node B Application Part (HNBAP) signalling (Rel. 8) [16] 3GPP TS 25.104 V8.5.0, Base Station (BS) radio transmission and reception (FDD) (Rel. 8) [email protected] [email protected] [email protected] 58 NOtIzIarIO tEcNIcO tELEcOM ItaLIa - anno18 NumeroUNO2009 Femtocelle: la stazione radio dentro casa - camillo carlini, Giulio Guerra, alessandro Vaillant A UTORI camillo carlini Giulio Guerra alessandro Vaillant laureato in Ingegneria Elettronica, nel 2006 entra in Telecom Italia, dove si occupa dell’ingegnerizzazione di servizi e prodotti innovativi per la Customer Network, sia residenziale che business. È oggi particolarmente impegnato nella definizione di servizi di Convergenza Fisso-Mobile per la clientela SME e Corporate ■ laureato in Ingegneria delle Telecomunicazioni, nel 2002 viene assunto in TIM per occuparsi di collaudi di sistemi radioelettrici. Dal 2002 al 2005 ha ricoperto il ruolo di delegato per il gruppo di standardizzazione 3GPP TSG-SA WG2 nel Working Group dedicato alle Interworking Wireless LAN. La competenza trasversale acquisita sulle tecnologie radiomobili, unita al background maturato in ambito networking, lo portano ad operare dal 2005 in TILab con il compito di presidiare lo scouting e l’ingegnerizzazione delle tecnologie convergenti fisso-mobili ■ laureato con lode in Ingegneria delle Telecomunicazioni, dal 2001 in Azienda, opera nell’area di Wireless Innovation di TILab. In ambito internazionale ha partecipato al progetto europeo ARROWS (Advanced Radio Resource Management of Wireless Access) e, dal 2005 al 2007, ha ricoperto il ruolo di delegato per il gruppo di standardizzazione 3GPP RAN WG2. Dal 2007 svolge, lato internazionale, attività di consulenza nei progetti NETEP rivolti agli operatori dell’America Latina. È anche impegnato nell’analisi e ottimizzazione delle reti di accesso di terza generazione e loro evoluzioni (MBMS, HSDPA, HSUPA, HSPA evolution, LTE). É inoltre referente delle attività sull’interfaccia radio nell’ambito del progetto “Valutazione ed analisi delle prestazioni di sistema di tecnologie per accesso radio e loro evoluzioni” ■ NOtIzIarIO tEcNIcO tELEcOM ItaLIa - anno18 NumeroUNO2009 59 trasm_ottica:Layout_NT 06/03/2009 11.53 Pagina 60 L’evoLuzione deLLa trasmissione ottica TECNOLOGIE L’ Sergio Augusto, Valentina Brizi, Rossella Tavilla obiettivo di questo lavoro è quello di descrivere lo stato dell’arte delle tecnologie della trasmissione e di tracciarne un possibile scenario evolutivo. Per far questo si farà ricorso alla descrizione delle due dimensioni fondamentali dello sviluppo: la componente puramente tecnologica della trasmissione e quella dei rapporti complessi con gli strati di rete superiori ed in particolare con le reti a pacchetto. 1 Introduzione Nell’ultimo decennio le architetture, le tecnologie e le funzionalità della rete trasmissiva di Telecom Italia sono significativamente cambiate, a seguito dei nuovi requisiti dei servizi a pacchetto e della crescita del traffico. L’obiettivo è stato quello di modificare le piattaforme di rete ottimizzate per il trasporto di servizi a circuito in strutture innovative in grado di trasportare efficientemente i nuovi servizi IP. Questo processo evolutivo è stato ed è tuttora governato dai seguenti principi: fare un uso efficiente delle risorse di rete ottimizzando gli investimenti, rendere automatiche 60 alcune funzionalità di rete riducendo i costi e sfruttare i vantaggi offerti dalle nuove tecnologie che consentono di realizzare maggiori capacità a minor costo. 2 Lo stato dell’arte e l’evoluzione delle tecnologie trasmissive ottiche Nel gergo delle trasmissioni c’e’ una sottile differenza semantica tra i termini “trasmissione ottica” e “trasmissione fotonica” o, più in generale, semplicemente “fotonica”. Entrambi si riferiscono alla trasmissione su fibra NOTIzIarIO TECNICO TELECOm ITaLIa - anno18 NumeroUNO2009 trasm_ottica:Layout_NT 06/03/2009 11.53 Pagina 61 L’evoluzione della trasmissione ottica - Sergio augusto, Valentina Brizi, rossella Tavilla ottica, ma quando si parla di fotonica si lascia intendere che non ci sia solo la trasmissione, ma qualcosa di più. Ed in effetti è vero. Ad esempio un apparato SDH è certamente un apparato ottico in quanto è equipaggiabile con trasmettitori (laser) e ricevitori (fotodiodi) per la trasmissione su fibra, ma la sua principale caratteristica è quella di trattare i segnali nel dominio elettronico: per svolgere le sue funzioni, come ad esempio la multiplazione TDM, l’instradamento dei circuiti, la loro protezione o l’ottimizzazione dell’uso della banda, deve, di necessità, trasformare il segnale da ottico a elettrico e poi in ottico per trasmetterlo nuovamente. Un apparato fotonico, al contrario, è un apparato che non solo è in grado di trasmettere segnali su fibra ottica, ma può svolgere le sue funzioni lasciando il segnale nel dominio ottico, o meglio, fotonico. Questa sottile ma essenziale distinzione è utile per ricordare velocemente i momenti fondamentali della storia della trasmissione fotonica e per cercare di identificare alcuni possibili scenari evolutivi. 2.1 Lo stato dell’arte delle tecnologie ottiche: il WDM Fin dalle sue prime applicazioni nei primi anni ’80 la trasmissione su fibra ottica, inizialmente a singolo canale, ha dimostrato tutti i suoi enormi vantaggi ed oggi la possibilità di trasmettere su una singola coppia di fibre decine di canali (tipicamente 80) ciascuno ad altissimo bitrate (40 Gbit/s già ora e 100 Gbit/s nei prossimi due o tre anni) fa sì che la trasmissione multicanale in fibra sia un elemento indispensabile per la realizzazione di qualunque infrastruttura di rete per le telecomunicazioni. L’obiettivo principale dell’evoluzione dei sistemi di trasporto su fibra ottica è stato inizialmente quello di superare i limiti fisici della trasmissione su cavo coassiale in termini di NOTIzIarIO TECNICO TELECOm ITaLIa - anno18 NumeroUNO2009 massimo bitrate applicabile ed è poi diventato quello di ridurre, quanto più possibile, il costo del singolo bit trasportato. Questo obiettivo lo si è raggiunto su tutte le sezioni di rete: dapprima sulla lunga distanza e poi nelle aree regionali e metropolitane. Le reti di lunga distanza sono state le prime a beneficiare dei vantaggi offerti dalla trasmissione a multi-lunghezza d’onda (WDM-Wavelength Division Multiplexing): un singolo amplificatore ottico bidirezionale sostituiva una molteplicità di rigeneratori elettro-ottici (indicati spesso come rigeneratori 3R 1). Non solo quindi si risparmiavano costose e rare fibre tra una città e l’altra, ma si riduceva drammaticamente il numero di apparati. Già alla fine degli anni ’90 i sistemi DWDM (Dense WDM) rappresentavano quindi la scelta obbligata per la realizzazione delle reti trasmissive di lunga distanza. In ambito regionale e metropolitano la ricerca di fibre libere era meno critica e, date le distanze in gioco, la rigenerazione elettroottica meno necessaria: i sistemi DWDM raggiunsero quindi questa sezione di rete con qualche anno di ritardo. Nei primi anni del nuovo millennio il ridotto costo dell’amplificazione ottica, ma anche la possibilità di trasportare segnali altrimenti non trasportabili dai sistemi tradizionali SDH (ad esempio quelli originati dai sistemi di Storage per il Disaster Recovery) furono l’impulso principale per l’introduzione dei sistemi DWDM anche nelle aree regionali e metropolitane. Da ultimo, la sezione più periferica della rete, quella nota come Metro-Access, è diventata il palcoscenico dove si esibisce l’ultima nata delle tecnologie di trasporto in fibra multi canale: il CWDM. Nonostante sia la più semplice, perché in grado di trasportare un numero limitato di canali a bitrate ridotto (massimo 16 canali a 10 Gbit/s) per distanze limitate (massimo 50 km), in quanto non fa uso di amplificazione ottica, il suo grande 1 Le 3 R significano: Ri-Amplificazione, Ri-Costruzione della forma dell’impulso e Ri-Sincronizzazione. 61 trasm_ottica:Layout_NT 06/03/2009 11.53 Pagina 62 L’evoluzione della trasmissione ottica - Sergio augusto, Valentina Brizi, rossella Tavilla successo deriva dal suo bassissimo costo. Il CWDM è diventato quindi la soluzione trasmissiva primaria adottata dagli Operatori per raccogliere e proteggere le grandi quantità di traffico dati (tipicamente sotto forma di segnali ethernet) generate sia dalla clientela di rete fissa (ADSL, IPTV) sia da quella di rete mobile divenendo uno degli elementi della convergenza fisso-mobile. 2.2 Le evoluzioni previste: l’aumento del bitrate e della flessibilità Le due principali strade ad oggi prevedibili per l’evoluzione della trasmissione WDM sono la crescita del bitrate di ciascun segnale, con associata la crescita delle prestazioni in termini di massima distanza raggiungibile senza rigenerazione elettro-ottica, e l’introduzione di funzionalità di commutazione dei circuiti a livello fotonico senza conversioni elettro-ottiche. 2.2.1 Verso la trasmissione multicanale a 100 Gbit/s Il passaggio da canali ottici a 2,5 Gbit/s a canali ottici 10 Gbit/s, avvenuto alla fine degli anni '90, è stato giustificato da due esigenze: aumentare la capacità trasmissiva della rete e ridurre i costi. In quel passaggio vi erano due sfide tecniche da superare: la compensazione della dispersione e l'effettuazione di misure per la caratterizzazione delle fibre prima della progettazione dei singoli collegamenti [8]. A questo si aggiungeva la complessità della tecnologia ed il maggior costo (circa cinque volte quello del 2,5 Gbit/s). Nonostante queste difficoltà iniziali i sistemi con canali a 10 Gbit/s sono decollati e oggi costituiscono la quasi totalità della rete nazionale. Questi progressi della tecnologia ed il 62 numero sempre maggiore di sistemi venduti ha portato gradualmente a limitare a 2,5 volte il maggior costo dei 10 Gbit/s rispetto quello dei 2,5 Gbit/s. Attualmente sulla rete nazionale di Telecom Italia tutti i nuovi canali sono realizzati con trasmissione di linea a 10 Gbit/s. Un’evoluzione simile a quella sopra descritta per il passaggio da 2,5 Gbit/s a 10 Gbit/s è stata finora pronosticata per quello da 10 Gbit/s a 40 Gbit/s. Dopo il consolidamento della tecnologia e dei progetti, durato circa 10 anni, il sistema a 40 Gbit/s è oggi commercialmente disponibile. Le problematiche tecniche associate all'impiego della tecnologia a 40 Gbit/s sembrano quindi oramai ben comprese e risolte. La dispersione di polarizzazione (PMD), che è sicuramente il fattore limitante di maggiore importanza per i 40 Gbit/s e condiziona la massima distanza raggiungibile senza rigenerazione elettrica, porta ad escludere la possibilità di realizzare canali a 40 Gbit/s su fibre che hanno una PMD>0,5 ps/√km. Le fibre con PMD<0,2 ps/√km possono essere in generale considerate adatte, mentre non pongono alcun problema quelle con PMD<0,1 ps/√km. In effetti, con i nuovi formati di modulazione sempre più sofisticati si possono usare tutte le fibre ed è quello che stanno facendo tutti gli Operatori nord-americani (i primi a utilizzare in modo massiccio canali a 40 Gbit/s). Nel dicembre 2006 l'IEEE 802.3 Higher Speed Study Group ha votato una mozione per l'adozione della frequenza di cifra 100 Gbit/s come la prossima velocità per Ethernet e l’ITU-T ha già definito la struttura del segnale digitale per il suo trasporto, ampliando la Raccomandazione G.709 con la definizione di un contenitore a 112 Gbit/s. L’IEEE dovrebbe terminare la specifica a giugno 2010. E’ interessante osservare che per la prima volta nella storia delle trasmissioni il salto gerarchico (da 10 a 100) corrisponda a una decuplicazione e non ad una quadruplicazione: è l’Ethernet che domina gli sviluppi anche sulle reti di trasporto. NOTIzIarIO TECNICO TELECOm ITaLIa - anno18 NumeroUNO2009 trasm_ottica:Layout_NT 06/03/2009 11.53 Pagina 63 L’evoluzione della trasmissione ottica - Sergio augusto, Valentina Brizi, rossella Tavilla In linea di principio le difficoltà per passare da una trasmissione a 40 Gbit/s ad una a 100 Gbit/s si dovrebbero presentare simili a quelle incontrate per passare da 10 Gbit/s a 40 Gbit/s. Tuttavia l'innovazione tecnologica potrebbe consentire di ridurle ulteriormente con l'adozione di formati di modulazione ottica multilivello (che modulano non solo l’ampiezza del segnale emesso dai laser ma anche la sua fase istantanea), come il DQPSK. Un formato di questo tipo dimezza la frequenza di simbolo (ogni simbolo DQPSK rappresenta infatti 2 bit) e riporta le problematiche legate alle degradazioni dovute alla trasmissione su fibra ad un livello simile a quello del 40 Gbit/s (si passa da 100 Gbit/s a 50 Gbaud/s). Il formato di modulazione più promettente, anche se il più costoso, è però quello che sfrutta anche la diversità di polarizzazione detto DP-DQPSK (Dual Polarization DQPSK), che riduce ulteriormente il ritmo di trasmissione dei simboli. In sostanza in trasmissione il flusso a 100 Gbit/s viene suddiviso in due flussi a 50 Gbit/s ciascuno dei quali modula in DQPSK due portanti ottiche con polarizzazioni ortogonali. Le difficoltà trasmissive (non certo quelle della realizzazione dei trasmettitori e dei ricevitori che crescono notevolmente) si riducono quindi a quelle incontrate per trasportare Figura 1 - Crescita della capacita` del singolo canale ottico e le principali tecnologie utilizzate (Fonte: alcatel-Lucent) un segnale di “soli” 25 Gbaud/s. In figura 1 e figura 2 si riportano alcuni dati relativi alle prestazioni dei sistemi di trasmissione. Si osservi che un elemento fondamentale per la crescita del bitrate dei segnali è il meccani- Figura 2 - Esempi di massime prestazioni trasmissive di sistemi multicanale (Fonte: alcatel-Lucent) NOTIzIarIO TECNICO TELECOm ITaLIa - anno18 NumeroUNO2009 63 trasm_ottica:Layout_NT 06/03/2009 11.53 Pagina 64 L’evoluzione della trasmissione ottica - Sergio augusto, Valentina Brizi, rossella Tavilla smo di correzione di errore noto come Forward Error Correction (FEC). Negli apparati WDM, la funzione FEC è realizzata da un codificatore nel trasmettitore che “legge” i bit di dati e aggiunge bit/simboli di ridondanza opportunamente calcolati, producendo un flusso a più alto bitrate e da un decodificatore FEC nel ricevitore che attua la correzione d’errore, estraendo la ridondanza ed elaborando i bit di dati come previsto dall’algoritmo. Il codificatore (encoder) e decodificatore (decoder) FEC sono integrati nei transponder, rispettivamente, di trasmissione e di ricezione. 2.2.2 La flessibilità: le reti “All Optical” e i nodi ROADM Multidegree In ogni rete trasmissiva la componente di costo più significativa è quella associata ai trasmettitori e ai ricevitori ottici, i cosiddetti transponder, i cui elementi principali sono i laser sintonizzabili in lunghezza d’onda e i fotodiodi di ricezione. Ad esempio in una rete trasmissiva a multilunghezza d’onda, come quella italiana, la quota parte destinata ai trasmettitori e ai ricevitori può raggiungere il 6070% del costo dell’intera rete (70-80% per le Figura 3 - Confronto tra rete Opaca (a) e rete trasparente aON (b). I quadratini indicano la rigenerazione elettro-ottica (3r). Il canale rosso nel caso di rete Opaca deve essere rigenerato in un nodo dove non e` terminato. 64 reti più vecchie). Esistono due modi per ridurre questo costo: utilizzare solo i transponder strettamente necessari e cioè quelli equipaggiati al bordo della rete, riducendo il più possibile quelli necessari alla rigenerazione intermedia del segnale, oppure ridurre il costo dei transponder stessi. Il primo obiettivo è quello che i costruttori cercano di raggiungere, migliorando le prestazioni trasmissive dei sistemi ed approssimando la realizzazione di reti tutte ottiche, le All Optical Network (AON). In figura 3 è rappresentata schematicamente la differenza fondamentale tra una rete AON e una Rete Opaca [7]. Le reti AON garantiscono la trasparenza sia al contenuto digitale del segnale, sia alla forma d’onda analogica (il segnale emesso dai laser), mentre le Reti Opache garantiscono la sola trasparenza al contenuto digitale: la rigenerazioni elettro-ottica (schematizzata dai quadratini neri di figura 3) interrompe la continuità dei segnali emessi dai laser, ricostruendone la forma ed eliminando il rumore introdotto dagli amplificatori ottici e tutte le degradazioni dovute alla propagazione in fibra ottica lungo il percorso. Nel seguito descriveremo brevemente lo stato dell’arte delle tecnologie per la realizzazione delle reti di tipo AON. Per poter garantire la trasparenza totale (forma d’onda analogica del segnale e contenuto digitale) è necessario aggiungere, NOTIzIarIO TECNICO TELECOm ITaLIa - anno18 NumeroUNO2009 trasm_ottica:Layout_NT 06/03/2009 11.53 Pagina 65 L’evoluzione della trasmissione ottica - Sergio augusto, Valentina Brizi, rossella Tavilla Figura 4 - Schema funzionale di un WSS in grado di commutare i segnali luminosi in base alla loro lunghezza d`onda (frequenza) (Fonte: Huawei) oltre al semplice trasporto DWDM, anche la funzione di commutazione delle singole lunghezze d’onda e introdurre quindi le cosiddette matrici fotoniche, note come Wavelenght Selective Switch (WSS), il cui schema funzionale è riportato in figura 4. I WSS sono in grado di permutare una singola lunghezza d’onda da una fibra di in- Figura 5 - Il cuore di una matrice ottica: struttura di uno WSS basato su specchi mEmS (Fonte: Huawei) NOTIzIarIO TECNICO TELECOm ITaLIa - anno18 NumeroUNO2009 gresso ad una qualunque fibra di uscita o viceversa e in generale si parla di WSS 1xN o Nx1 a seconda del verso dei segnali (da una fibra di ingresso a N fibre di uscita o viceversa). Esistono diverse tecnologie per la realizzazione dei WSS; le più diffuse sono la tecnologia MEMS 2 (Micro-Electro Mechanical Systems), quella dei Cristalli Liquidi (Liquid Crystal – LC), dei Cristalli Liquidi su Silicio (LCoS) e dei Planar Lightwave Circuit (PLC). 2 http://www.memsnet.org/mems/what-is.html 65 trasm_ottica:Layout_NT 06/03/2009 11.54 Pagina 66 L’evoluzione della trasmissione ottica - Sergio augusto, Valentina Brizi, rossella Tavilla Figura 6 - Un array di specchi mEmS fabbricati in silicio con processi litografici (a). L`orientamento di ciascuno specchio (b) determina la direzione, e quindi la fibra, di uscita del segnale l’elemento base per la realizzazione di nodi fotonici, o meglio di veri e proprio cross-connect, in grado di instradare e reinstradare singoli canali ottici indipendentemente dal bitrate e dal loro contenuto digitale. L’elemento di rete necessario a costruire una rete AON che sfrutta le funzionalità messe a disposizione dai WSS è il cosiddetto ROADM, Reconfigurable Optical Add Drop Multiplexer. In figura 7 è rappresentata l’architettura semplificata di un nodo ROADM. Si osservi che è stato indicato un solo verso di trasmisAttualmente la tecnologia utilizzata per i prodotti commerciali più performanti è quella dei MEMS. La figura 5 e la figura 6 descrivono il funzionamento di una matrice ottica basata sui MEMS. I WSS, ormai commercialmente disponibili, sono 66 Figura 7 - architettura semplificata di un generico rOaDm NOTIzIarIO TECNICO TELECOm ITaLIa - anno18 NumeroUNO2009 trasm_ottica:Layout_NT 06/03/2009 11.54 Pagina 67 L’evoluzione della trasmissione ottica - Sergio augusto, Valentina Brizi, rossella Tavilla sione ed inoltre, per semplicità grafica, non compaiono i collegamenti a maglia completa tra tutti i WSS. L’utilizzo di transponder e filtri (all’interno dei demultiplatori – demux in figura 7) sintonizzabili garantisce che il nodo sia in grado di instradare qualunque canale verso qualunque direzione; si parla in questo caso di nodi “colourless” e “directionless”. Ad oggi i WSS basati su MEMS commercialmente disponibili sono del tipo 1x9: è possibile quindi costruire ROADM con 8 vie o gradi uscenti. Si osservi che su ciascuna delle vie possono viaggiare fino ad 80 canali (in alcuni casi 160) a 40 Gbit/s: la capacità totale gestita da ciascun nodo è quindi enorme (nel caso dei 160 canali si raggiungono i 50 Tbit/s). 2.3 La fotonica integrata: un’opportunità tecnologica Come detto, in ogni rete trasmissiva la componente di costo più significativa è quella associata ai trasmettitori e ai ricevitori ottici. Un modo alternativo alla realizzazione di reti AON è quello di ridurre il costo dei transponder e più in generale della conversione elettro-ottica. Tale obiettivo è uno tra i tanti che si prefigge la nascente e molto promettente tecnologia della fotonica integrata o dei cosiddetti Photonic Integrated Circuit (PIC). In questo paragrafo descriveremo la tecnologia dei PIC e la sua applicazione alla realizzazione di Reti Opache o come sempre più spesso sono indicate Digital Optical Network (DON). Il termine “ottica integrata” compare per la prima volta nel 1969 in un articolo apparso su The Bell System Technical Journal intitolato “Integrated Optics: an introduction”, ma ci sono voluti più di trenta anni perché le sue prime applicazioni vedessero la luce. La prima legge di Moore 3 per la fotonica sta infatti iniziando ad essere applicabile adesso: NOTIzIarIO TECNICO TELECOm ITaLIa - anno18 NumeroUNO2009 i fornitori di sistemi e sottosistemi sono lì dove erano, nel 1968, Gordon Moore e Robert Noyce quando fondarono l’Intel ed iniziarono a costruire i primi circuiti integrati. Nel 1971 il microprocessore 4004 dell’Intel conteneva già 2300 transistor, mentre oggi il più sofisticato PIC contiene al più 100 elementi o funzioni fotoniche. Il motivo principale di questo ritardo è dovuto al fatto che le applicazioni per la fotonica integrata erano all’epoca molto rare. Inoltre per integrare oggetti in grado di manipolare fotoni ed elettroni anziché solo elettroni, come nel caso dei circuiti integrati tradizionali, sono necessari molti materiali diversi e non solo il silicio. Oggi il mercato dei PIC sta crescendo velocemente e tutti i maggiori fornitori di sistemi e di sottosistemi stanno lavorando in questo campo, aprendo la strada ad un gran numero di applicazioni. Intel stessa ha dichiarato recentemente 4 che la fotonica integrata sarà l’elemento fondante di qualunque chip costruito in futuro. Gli elementi integrabili in un PIC sono le sorgenti laser, le guide d’onda, i filtri, gli accoppiatori, i modulatori, i rivelatori, i substrati per l’assemblaggio e, ovviamente, l’intelligenza dei microprocessori, come indicato nella figura 8. L’applicazione principale della fotonica integrata e quella che più ci interessa per gli scopi di questo articolo è ormai commercialmente disponibile da qualche anno. Essa consiste nella realizzazione di PIC che integrano la funzione di multiplazione, demultiplazione, trasmissione e ricezione multicanale a 10 Gbit/s (e a breve anche a 40 Gbit/s e a 100 Gbit/s). Per avere un’idea qualitativa del risparmio ottenibile si osservi che i due circuiti integrati in figura 10 implementano le funzioni fotoniche equivalenti a quelle dei 10 3 Prima Legge di Moore: la complessità e la potenza dei circuiti integrati sono destinate a raddoppiare a intervalli regolari, tipicamente 18 mesi. 4 http://www.intel.com/go/sp/ 67 trasm_ottica:Layout_NT 06/03/2009 11.54 Pagina 68 L’evoluzione della trasmissione ottica - Sergio augusto, Valentina Brizi, rossella Tavilla Figura 8 - Elementi fotonici (e non solo) integrabili su silicio (Fonte: Intel) Figura 9 - Ogni transponder e` composto attualmente da molti elementi non integrati. 68 NOTIzIarIO TECNICO TELECOm ITaLIa - anno18 NumeroUNO2009 trasm_ottica:Layout_NT 06/03/2009 11.54 Pagina 69 L’evoluzione della trasmissione ottica - Sergio augusto, Valentina Brizi, rossella Tavilla Figura 10 - a sinistra il PIC con il demultiplatore DWDm e 10 ricevitori a 10 Gbit/s, sotto il PIC con il multiplatore DWDm e 10 trasmettitori a 10 Gbit/s (10 laser e 10 modulatori), a destra le dimensioni (Fonte: Infinera) 2.4 transponder sintonizzabili in lunghezza d’onda di figura 9 più le funzioni di multiplazione e demultiplazione per tutti e 10 i canali a 10 Gbit/s. I due PIC insieme garantiscono quindi la trasmissione multicanale di 100 Gbit/s e si prevede che entro il 2020 saranno disponibili PIC in grado di gestire fino a 4 Tbit/s. Oltre all’indubbio vantaggio di ridurre il costo della rigenerazione e di facilitare quindi la realizzazione di reti fotoniche complesse, evitando di dover realizzare collegamenti molto lunghi non rigenerati, l’introduzione della fotonica integrata rende disponibili punti di accesso al segnale in transito per la verifica della qualità digitale (e non solo della potenza del segnale ottico come succede nelle reti AON) o per la realizzazione di funzioni più sofisticate. NOTIzIarIO TECNICO TELECOm ITaLIa - anno18 NumeroUNO2009 La trasparenza al contenuto digitale: l’OTN Indipendentemente da come sia realizzata una rete ottica a multilunghezza d’onda (AON o Opaca), per realizzare la trasparenza al contenuto digitale, che, come detto precedentemente, è richiesta in tutte e due le architetture, è stato necessario standardizzare una nuova gerarchia numerica nota come Optical Transport Hierarchy (OTH). Le reti Opache e le AON5, che fanno uso di questa nuova gerarchia numerica si dicono Optical Transport Network (OTN) ed il loro modello astratto è definito nella Raccomandazione ITU G.872 "Architecture for the Optical Transport Network (OTN)” (in realtà in ITU-T è ancora in discussione se estendere la G.872, inizialmente pensata per le sole Reti Opache, anche alle AON o fare una nuova Raccomandazione). 5 Si osservi infatti che anche in una AON ai bordi è necessario raccogliere il segnale da trasportare (il segnale Cliente) e trattarlo in modo da renderlo compatibile con il trasporto ottico. 69 trasm_ottica:Layout_NT 06/03/2009 11.54 Pagina 70 L’evoluzione della trasmissione ottica - Sergio augusto, Valentina Brizi, rossella Tavilla L’Optical Transport Network è poi completamente definita da un insieme di Raccomandazioni sviluppate in ambito ITU-T (le principali sono la G.872, G.709 e la G.798). L’obiettivo principale è quello di costruire una rete in grado di trasportare in modo trasparente segnali TDM a bitrate costante (Constant Bit Rate – CBR) garantendone al tempo stesso la gestione e il monitoraggio digitale (e non solo quello ottico). La storia di questo standard è abbastanza curiosa; il lavoro va avanti ormai da circa dieci anni, ma le applicazioni reali rimangono in numero molto ridotto. La causa principale è stata la forte riduzione degli investimenti che si è avuta a seguito dello scoppio della “bolla tecnologica” dal 2001 in poi. Negli ultimi due o tre anni le attività di specifica di questa tecnologia si sono nuovamente riavviate a causa del fatto che mancano nello standard originale metodi efficienti di trasporto dei segnali Ethernet, che saranno sicuramente in un futuro molto prossimo la maggior parte dei segnali cliente da trasportare (sia quelli esistenti a 1 Gbit/s e a 10 Gbit/s, sia quelli nuovi a 40 Gbit/s e a 100 Gbit/s ). Ad oggi la situazione non è completamente stabilizzata, ma tutti i fornitori stanno iniziando a proporre macchine in grado di permutare in modo trasparente, sfruttando matrici elettriche, segnali CBR a 1,25 Gbit/s, 2,5 Gbit/s, a 10 Gbit/s e a 40 Gbit/s indipendentemente dal loro contenuto sia esso Ethernet, SDH o Sonet. Per maggiori dettagli circa le logiche di funzionamento della gerarchia OTH definita nell’ambito OTN si rimanda all’articolo del Notiziario Tecnico dedicato [1]. 2.5 Un’opportunità per la convergenza delle reti: il Packet Transport Le ipotesi di evoluzione delle reti trasmissive in ambito metropolitano e regionale 70 traggono origine dalle previsioni di forte crescita del traffico IP legata alla diffusione dei nuovi servizi residenziali, dei servizi di Backhauling delle reti mobili di ultima generazione e all’incremento di banda per i servizi business. Come già detto, gli Operatori si trovano di fronte alla necessità di sciogliere tre nodi fondamentali per poter garantire un’offerta di qualità per i nuovi servizi e un significativo ritorno economico, minimizzando sia gli investimenti che le spese operative: adeguare le infrastrutture alla crescita della banda, garantire una buona scalabilità delle reti e far coesistere per un tempo ad oggi non prevedibile i nuovi servizi con quelli tradizionali. Per quanto riguarda l’adeguamento delle infrastrutture alla crescita della banda, per avere un’idea dell’impatto che i nuovi servizi potranno avere sulle attuali MAN Ethernet e sulle reti trasmissive di raccolta in termini di richiesta di banda, è sufficiente pensare che le reti di accesso in via di realizzazione permetteranno di offrire ai singoli utenti residenziali velocità medie tra i 50 e i 100 Mbit/s, ben superiori rispetto al tetto dei 20 Mbit/s oggi disponibili con tecnologie ADSL+. Per quanto riguarda la scalabilità si osservi che l’architettura fisica delle reti che oggi consentono l’erogazione dei servizi IP è a strati sovrapposti: la rete IP utilizza il servizio delle MAN Ethernet, che, a loro volta, richiedono il servizio di trasporto alla rete WDM (ed in alcuni casi anche SDH). La crescita del traffico IP implica quindi anche la necessità di espansione sia delle reti trasmissive sia della rete Ethernet. Le tecnologie SDH e WDM non hanno vincoli di scalabilità, al contrario invece del protocollo Ethernet usato nelle MAN. Ad esempio in una rete metro Ethernet esiste un limite fisico al numero massimo di servizi di Virtual LAN che possono essere offerti, legato al numero di bit del campo di identificazione dei servizi stessi (poco più di 4000 distinte Virtual LAN identificabili con un campo di 12 bit). NOTIzIarIO TECNICO TELECOm ITaLIa - anno18 NumeroUNO2009 trasm_ottica:Layout_NT 06/03/2009 11.54 Pagina 71 L’evoluzione della trasmissione ottica - Sergio augusto, Valentina Brizi, rossella Tavilla Da ultimo il problema della coesistenza del nuovo e del vecchio: le nuove reti dovranno garantire il trasporto sia dei segnali Ethernet per nuovi servizi IP sia quello degli attuali servizi TDM e SAN. E questo fino a quando tutto non sarà stato ridotto a pacchetti. Negli ultimi cinque anni vari organismi di standardizzazione (come l’ITU-T e l’IEEE) hanno lavorato per dare soluzione ai problemi appena esposti, arrivando alla definizione di una “rete di trasporto ottica a pacchetto” (o Packet Optical Transport Network), in grado di integrare in un'unica architettura i benefici della tecnologia Ethernet e quelli delle tradizionali reti ottiche di trasporto SDH e WDM. Da un lato, infatti, l’Ethernet possiede le caratteristiche dell’economicità e della semplicità del protocollo: le interfacce Ethernet elettriche e ottiche sono usate estensivamente non solo nelle LAN, ma anche su PC, su svariati dispositivi elettronici, su apparati in ambienti enterprise e hanno permesso così una economia di scala che nel tempo si è riflessa sui prezzi dei singoli componenti. Dall’altro lato, le tecnologie SDH e WDM assicurano un livello di qualità del servizio “Carrier Grade” indispensabile in qualunque rete di trasporto, poiché offrono una connessione trasparente con schemi di protezione veloci, con latenza predefinita e basso tasso di errore ad una molteplicità di interfacce cliente; la rete possiede inoltre meccanismi che ne consentono una gestione remota semplice e sicura oltre ad avere il pregio di poter essere facilmente fatta crescere senza alcun degrado delle prestazioni. Tra le soluzioni presentate per una tecnologia innovativa di trasporto a pacchetto con connessione, le più significative sono indubbiamente il Transport-MPLS (T-MPLS) [6] e il Provider Backbone Bridging – Traffic Engineering (PBB-TE) [5]. Il T-MPLS è un’evoluzione dell’MPLS usato nelle reti a pacchetto ed è stato sviluppato dall’ITU-T mentre il PBB-TE detto NOTIzIarIO TECNICO TELECOm ITaLIa - anno18 NumeroUNO2009 anche Provider Backbone Transport (PBT) è un’evoluzione degli standard Carrier Ethernet sviluppato dall’IEEE. L’idea di base comune ad entrambi gli approcci è quella di riuscire ad integrare in un unico strato di rete e quindi in un singolo apparato le funzionalità oggi svolte da nodi distinti, ma spesso colocati, della rete di trasporto e delle MAN Ethernet. Il T-MPLS è stato standardizzato nell’ITUT Study Group 15 a partire dal 2005, con l’obiettivo di identificare il sottoinsieme di funzionalità dell’MPLS necessarie e sufficienti a costruire una rete a pacchetto con connessione. La seguente equazione ben ne riassume le caratteristiche o almeno le intenzioni dei suoi estensori: T-MPLS = MPLS – “IP complexity” + OAM 6+ ”Protection Switching”. Muovendo dai principi dell’MPLS, l’ITU-T ha infatti sviluppato il T-MPLS, eliminando o modificando tutte quelle funzionalità e caratteristiche che, utili in una rete a pacchetto, complicano invece la gestione di una rete orientata alla connessione. L’entità base dell’MPLS, l’LSP (Label Switch Path) definito come un path monodirezionale, è stata mantenuta per garantire un servizio con connessione; in questo caso, però, gli LSP sono bidirezionali, eventualmente proteggibili, così come tutti i path di una rete trasmissiva. Relativamente al tentativo di ridurre la complessità operativa del protocollo MPLS, a titolo di esempio si possono citare le funzionalità che l’ITU-T ha deciso di non includere nel T-MPLS e che sono invece ritenute di grande importanza nella gestione di una rete dati, come l’elaborazione e il successivo scarto dell’header dei pacchetti nel penultimo nodo del percorso verso la propria destinazione, o come la fusione di LSP con destinazione comune su di un unico path (LSP Merging) o ancora l’instradamento del traffico di connessioni diverse su più di un path. 6 Con il termine OAM si intendono tutte le funzionalità di Operation Administration and Maintainance. 71 trasm_ottica:Layout_NT 06/03/2009 11.54 Pagina 72 L’evoluzione della trasmissione ottica - Sergio augusto, Valentina Brizi, rossella Tavilla Una caratteristica fondamentale da rimarcare è che, se nelle reti dati sono gli switch/router a scambiarsi informazioni per la costruzione delle tabelle di inoltro dei pacchetti, la nuova tecnologia prevede che la configurazione degli LSP sui singoli apparati della rete sia effettuata da un sistema di gestione remoto, che permette quindi la supervisione e la gestione della rete grazie alle funzionalità di OAM&P; tali funzionalità, mai introdotte nel mondo MPLS, sono state definite attingendo direttamente alle raccomandazioni ITU-T che specificano le medesime funzionalità per le reti di trasporto. Le funzionalità di switching associate al TMPLS sono, all’atto pratico, realizzate in una matrice a pacchetto che trova due possibili impieghi: uno nei sistemi che rappresentano l’evoluzione del NG-SDH e un altro nei sistemi che rappresentano invece l’evoluzione degli switch ethernet. Nel primo dei due impieghi, il T-MPLS può essere pensato come un ulteriore strato di rete le cui funzionalità vanno ad integrare quelle degli apparati SDH (figura 11) per una gestione più efficiente del traffico ethernet rispetto a quella sinora offerta dalle funzionalità della NG-SDH: a tendere tutto il traffico cliente sarà sottoposto a switching e forwarding come in una rete a pacchetto e ciò comporta che anche il traffico TDM debba essere “pacchettizzato” prima di avere accesso ad un’unica matrice con funzioni “universali” o “agnostiche". In questo caso il T-MPLS è pensato come una tecnologia che permette di sfruttare le reti di trasporto SDH già installate o almeno il know-how a queste associato e da tempo consolidato all’interno delle organizzazioni dei principali operatori. Si è supposto che questa possa essere una strada vantaggiosa affinché l’evoluzione dalle attuali architetture di trasporto verso nuove tecnologie integrate “all IP” possa avvenire gradualmente a partire dalle ampie basi di rete di trasporto esistenti, assicurando la continuità nell’offerta di servizi legacy, e evitando repentini cambiamenti di tecnologia. Nell’ottica dell’analisi dei costi associati ad un cambio di tecnologia, l’opportunità offerta dal “riutilizzo” del know-how acquisito ha sicuramente dei riflessi significativi sul contenimento dei costi operativi, intesi sia come capacità operativa nella gestione fisica della rete, sia come esperienza da mettere a frutto nello sviluppo dei nuovi sistemi di supporto associati. Il secondo impiego vede la matrice basata sul T-MPLS inserita in switch ethernet: in questo caso l’uso del protocollo ha l’obiettivo di aumentare le prestazioni cosiddette Carrier Grade dei sistemi impiegati nelle reti di livello 2. Nei primi mesi del 2008, l’ITU-T e l’IETF hanno concordato una ulteriore evoluzione del T-MPLS, l’MPLS-TP (MPLS - Transport Figura 11 - Lo stack protocollare in cui si inserisce il T-mPLS 72 NOTIzIarIO TECNICO TELECOm ITaLIa - anno18 NumeroUNO2009 trasm_ottica:Layout_NT 06/03/2009 11.54 Pagina 73 L’evoluzione della trasmissione ottica - Sergio augusto, Valentina Brizi, rossella Tavilla Profile). Quest’ultimo dovrebbe essere sviluppato in modo da mantenere tutte le funzionalità inserite dall’ITU-T nel T-MPLS e allo stesso tempo garantire una compatibilità certificata con lo standard MPLS. Nonostante il T-MPLS abbia ereditato i principi fondamentali dell’MPLS, la compatibilità tra le due tecnologie, indispensabile in un’ottica di completa integrazione delle reti, sembra infatti non fosse assicurata dallo standard ITU-T. Il PBB-TE trae origine dall’insieme di specifiche IEEE che definiscono l’Ethernet (802.1 e tutte le successive evoluzioni) ed è stato pensato come uno strato di rete intermedio da aggiungere ai nodi delle attuali reti ethernet per renderle più vicine al modello transport-oriented: il suo campo di applicazione è lo stesso descritto per il T-MPLS impiegato a bordo dei classici switch di livello 2. Ad esso si è giunti attraverso una serie di evoluzioni successive che negli anni hanno arricchito e migliorato la tecnologia Ethernet. L’impiego dell’802.1 nelle MAN è stato favorito dal basso costo e dalla semplicità d’uso della tecnologia, ma ha richiesto l’aggiornamento e l’arricchimento del set di specifiche disponibili per assicurare prestazioni qualitativamente superiori a quelle necessarie in una semplice LAN arrivando alla definizione del cosiddetto “Carrier Ethernet” o PBB: il massimo numero di VLAN in una rete è stato fatto crescere e ne è stata ottimizzata la gestione, ma soprattutto si è offerta una reale separazione tra la rete del cliente e quella del provider, poiché il PBB permette di effettuare il forwarding della trama basandosi esclusivamente sulle informazioni contenute in un nuovo frammento di overhead senza prendere in considerazione gli indirizzi MAC dei destinatari finali. La tappa successiva è stata quella del PBB-TE definito anche “Carrier Ethernet Transport”, che secondo gli sviluppatori promette di colmare le inefficienze che l’Ethernet ha sempre mostrato se confrontato con una tecnologia di puro trasporto. L’Ethernet infatti, come il PBB, non è in grado di offrire una latenza deterministica, una protezione rapida del traffico e, cosa fondamentale sia per garantire scalabilità sia per ridurre i costi operativi, una gestione remotizzabile. Per riassumere, l’approccio seguito dal T-MPLS e dal PBB-TE è evidentemente diverso ma le reti che entrambi promettono di realizzare hanno le stesse fondamentali caratteristiche: il piano di gestione e quello eventuale di controllo sono separati da quello del traffico dati che viaggia su connessioni bidirezionali protette (con tempi di scambio paragonabili a quelli delle attuali reti di trasporto) che possono accettare una molteplicità di segnali client con diversi requisiti di bitrate, latenza e jitter; inoltre il piano di gestione mette a disposizione delle funzioni previste da quanto stabilito in ITU-T ed in particolare le cosiddette funzioni FCAPS: Fault Management, Configuration Management, Accounting Management, Performance Management e Security Management. 2.6 NOTIzIarIO TECNICO TELECOm ITaLIa - anno18 NumeroUNO2009 Il Piano di controllo: quando è la Rete a decidere Da alcuni anni alle reti trasmissive sono state aggiunte, mediante l’impiego di un Piano di Controllo interessanti funzioni automatiche spesso indicate come “intelligenti”. Tali funzioni coprono una molteplicità di aspetti legati al funzionamento di una rete trasmissiva; tra questi la protezione dei circuiti è uno di quelli cha ha decretato il successo dell’applicazione di un Piano di Controllo alle reti trasmissive. Le reti tradizionali, ad esempio quelle basate sulla tecnologia SDH di prima generazione, prevedono meccanismi di protezione basati sostanzialmente sul raddoppio della banda. Per ciascun circuito è necessario un secondo circuito di protezione; a fronte di un 73 trasm_ottica:Layout_NT 06/03/2009 11.54 Pagina 74 L’evoluzione della trasmissione ottica - Sergio augusto, Valentina Brizi, rossella Tavilla guasto sul circuito principale, il traffico è dirottato sul circuito di protezione precedentemente configurato. Questa modalità presenta alcuni svantaggi: il circuito di protezione deve essere disponibile anche se non utilizzato, la sopravvivenza del traffico non è garantita per guasti multipli e, a fronte di una variazione della rete o per esigenze di esercizio, è complesso modificare il percorso di un circuito stesso. Il Piano di Controllo, al contrario, “conosce” la rete e lo stato delle risorse ed è in grado di calcolare e condividere nuovi percorsi di protezione ad ogni guasto, come descritto in figura 12. I vantaggi che ne derivano sono: efficienza, tramite la condivisione delle risorse, affidabilità, grazie alla possibilità di garantire la sopravvivenza del traffico per guasti multipli e, infine, flessibilità, dovuta al fatto che il percorso di un circuito è calcolato automaticamente ma può essere modificato. Il Piano di Controllo mette a disposizione diversi parametri per stabilire le politiche di instradamento: è possibile, ad esempio, definire un costo diverso per ciascuna connessione in modo da privilegiare alcune direttrici, applicare algoritmi di Traffic Engineering per evitare la congestione nell’uso delle risorse o applicare criteri di priorità ai circuiti in modo da garantire il massimo grado di protezione a quelli più pregiati. In merito a quest’ultimo punto si osservi che il Piano di Controllo consente inoltre di confi- gurare diverse modalità di protezione in base alla qualità del servizio stabilita per ciascun circuito. 2.6.1 Il Piano di Controllo per Reti Opache e AON Molti Operatori, tra cui Telecom Italia [2], hanno in esercizio reti Opache (per ora SDH e non OTN) dotate di Piano di Controllo; al contrario, le reti AON in campo oggi sono ancora prive di funzionalità automatiche. Esistono alcune differenze sostanziali tra i due tipi di rete. Una prima differenza è che un Piano di Controllo in una rete AON, per garantire la fattibilità di un percorso, deve tenere conto delle caratteristiche fisiche della rete come ad esempio la tipologia della fibra ottica, lo stato degli amplificatori, l’attenuazione dovuta all’attraversamento di apparati ottici o ripartitori. Questi aspetti non sono rilevanti in una rete Opaca dove, come si ricorderà, il segnale è rigenerato in ogni nodo. L’insieme di parametri fisici si aggiunge quindi all’insieme dei parametri caratteristici di un Piano di Controllo: ne consegue una maggiore complessità degli algoritmi di calcolo. Alcuni di questi parametri sono statici, ad esempio la tipologia di fibra, altri possono cambiare, ad esempio l’attenuazione di un collegamento può aumentare a seguito del- Figura 12 - Protezione dei circuiti 74 NOTIzIarIO TECNICO TELECOm ITaLIa - anno18 NumeroUNO2009 trasm_ottica:Layout_NT 06/03/2009 11.54 Pagina 75 L’evoluzione della trasmissione ottica - Sergio augusto, Valentina Brizi, rossella Tavilla l’inserzione di uno o più ripartitori ottici, situazione che può verificarsi a seguito di un ripristino di un guasto di cavo. Se il Piano di Controllo non conosce tali variazioni potrebbe giudicare fattibile un percorso che in realtà non lo è più. L’aggiornamento automatico di questi parametri implica però un incremento della segnalazione di rete e della complessità degli apparati. Un modo per risolvere questo problema è quello di aggiungere margini di sicurezza durante la fase di calcolo di un percorso, in modo da poter assorbire eventuali peggioramenti delle caratteristiche ottiche della rete. Questa scelta, per la sua semplicità, sembra essere preferita dai costruttori, anche se prevede, ovviamente, un incremento dei costi complessivi di rete. Un secondo aspetto tipico delle reti AON dotate di Piano di Controllo è il fatto che il numero di canali ottici in un aggregato di linea è tipicamente limitato a 40 o a 80 (in alcuni casi molto rari si arriva a 160). Quindi una connessione tra due apparati ottici deve essere realizzata con una sequenza di canali dello stesso colore oppure individuando un apparato intermedio dove è possibile realizzare una conversione elettro-ottica del segnale ed un cambio di frequenza, come descritto in figura 13 dove la connessione tra il nodo WSS-a ed il nodo WSS-e non può essere realizzata mediante la lunghezza d’onda 1 perchè nel sistema DWDM tra i nodi WSS-f e WSS-e questo canale è già occupato. È quindi necessario modificare la frequenza del canale da 1 a 2 nel nodo WSS-f, utilizzando ad esempio una coppia di transponder sintonizzabili in frequenza. In una rete di livello nazionale costituita da alcune decine di nodi, potrebbe risultare complesso trovare una sequenza di canali dello stesso colore per connettere due apparati: si potrebbe arrivare ad una situazione di blocco, cioè all’impossibilità di calcolare un nuovo percorso perché, pur essendoci canali disponibili, questi non hanno lo stesso colore. Aumentare il numero di nodi dove è possibile realizzare la conversione elettro-ottica ed il cambio di frequenza presenta ovviamente lo svantaggio di aumentare il costo complessivo della rete. L’efficienza del Piano di Controllo nella gestione delle frequenze è quindi un aspetto rilevante per le reti AON. 2.6.2 Architettura Centralizzata o Distribuita Un aspetto rilevante per un Piano di Controllo è la localizzazione dei processi di elaborazione. Questi possono essere concentrati in una singola entità fisica (Piano di Controllo Centraliz- Figura 13 - Funzionalita` di cambio di colore NOTIzIarIO TECNICO TELECOm ITaLIa - anno18 NumeroUNO2009 75 trasm_ottica:Layout_NT 06/03/2009 11.54 Pagina 76 L’evoluzione della trasmissione ottica - Sergio augusto, Valentina Brizi, rossella Tavilla zato) o distribuiti tra tutti i controllori di apparato (Piano di Controllo Distribuito) come descritto in figura 14. Questa ultima architettura è quella tipica delle reti dati (ad esempio una rete di Router IP). Nell’architettura centralizzata, ciascun apparato non conosce lo stato della rete e queste informazioni ed i processi per il calcolo dei percorsi risiedono in un server (o in un cluster di server) centralizzato al quale tutti fanno riferimento: gli apparati di conseguenza possono essere equipaggiati con controllori più semplici ed economici. In questa soluzione i server hanno un ruolo rilevante: dalla loro disponibilità, capacità di memoria e velocità di calcolo deriva infatti il buon funzionamento della rete. In genere la concentrazione delle informazioni di rete in un unico punto facilita la visibilità della rete offerta all’operatore che la gestisce. Nell’architettura distribuita, i processi del Piano di Controllo sono distribuiti su tutti gli apparati, che quindi conoscono lo stato della rete (topologia, stato della rete, allarmi, instradamento dei circuiti). Dalle prestazioni dei controllori equipaggiati in ciascun nodo e dal controllo delle scelte che gli apparati prendono in maniera autonoma dipende l’efficacia della soluzione distribuita. In questa soluzione, l’indisponibilità di un singolo apparato non comporta un degrado sull’intera rete, in quanto gli altri apparati mantengono inalterate le possibilità di proteggere il traffico. La distribuzione dei processi e delle informazioni porta in genere ad una maggiore complessità nella loro raccolta e distribuzione verso i sistemi di gestione. Tipicamente un Piano di Controllo su reti AON ha un’architettura centralizzata, mentre per le reti Opache si è partiti da soluzioni concentrate per arrivare, nella maggioranza delle ultime implementazioni, ad architetture distribuite o semidistribuite. Figura 14 - Localizzazione dei processi 76 NOTIzIarIO TECNICO TELECOm ITaLIa - anno18 NumeroUNO2009 trasm_ottica:Layout_NT 06/03/2009 11.54 Pagina 77 L’evoluzione della trasmissione ottica - Sergio augusto, Valentina Brizi, rossella Tavilla 3 La rete trasmissiva di Telecom Italia: lo stato dell’arte e le sue possibili evoluzioni 3.1 La rete trasmissiva di lunga distanza La rete di trasmissiva di lunga distanza o Rete di Trasporto Nazionale (RTN) è la rete che interconnette le maggiori città italiane, i cosiddetti Nodi Nazionali (o ex nodi A1). E’ costituita da tre livelli sovrapposti: la fibra, i sistemi DWDM e le reti SDH. Per quanto riguarda la fibra ottica, in ambito nazionale si distinguono fondamentalmente tre tipologie di fibre: la fibra rispondente alla Raccomandazione ITU-T G.653 che è la fibra di vecchia generazione, ottimizzata per applicazioni singolo-canale SDH (bassissimi valori di attenuazione e dispersione cromatica nulla nella regione di lavoro dei trasmettitori laser SDH), ma non ottima per applicazioni WDM, la fibra ITU-T G.655 che è la fibra di posa recente ottimizzata per le nuove tecnologie WDM e la fibra ITU-T G.652 che è la fibra presente principalmente in ambito regionale; in alcuni casi è stata utilizzata anche per applicazioni in ambito nazionale. Questa fibra consente ottime prestazioni anche per la tecnologia WDM. Come già detto negli ultimi dieci anni la tecnologia WDM è stata utilizzata intensamente nell’ambito della RTN, consentendo la realizzazione di uno “strato ottico” estremamente capillare costituito da collegamenti punto-punto. Lo sviluppo di questo strato ottico ha avuto inizio nel 1999 con gli apparati DWDM di prima generazione (detti Long Haul - LH) in grado di trasportare 12 canali ottici a 2,5 Gbit/s su fibra G.653 e 16 canali ottici 2,5 Gbit/s su fibra G.652; questi sistemi, 75, sono tutti ancora in esercizio. Dalla seconda metà del 2001 ha avuto ini- NOTIzIarIO TECNICO TELECOm ITaLIa - anno18 NumeroUNO2009 zio lo sviluppo dei sistemi DWDM di seconda generazione (detti Very Long Haul - VLH) in grado di trasportare fino a 40 canali ottici a 2,5 Gbit/s e/o a 10 Gbit/s. Tale salto tecnologico ha consentito di decuplicare la capacità trasmissiva di ogni singola coppia di fibre, che è così passata da 40 Gbit/s a 400 Gbit/s. Il duplice vantaggio della tecnologia WDM consiste proprio in questo: da un lato moltiplica la banda disponibile superando situazioni di saturazione o di scarsità di fibre ottiche; dall’altro consente di ridurre gli investimenti per unità di banda trasportata. Lo sviluppo dello strato ottico è quindi proseguito negli anni successivi seguendo l’innovazione tecnologica che, in sintesi, ha consentito di realizzare collegamenti sempre più lunghi tramite il miglioramento delle prestazioni trasmissive, di semplificare l’esercizio e la gestione dei collegamenti tramite l’automazione di alcune funzionalità (come ad esempio l’equalizzazione degli amplificatori ottici e la pre-enfasi delle potenze dei trasmettitori laser) e trasportare segnali di diversi formati (SDH, GbE, 10 GbE); tutto questo con l’inserimento in rete dei sistemi di terza generazione (noti anche come sistemi Ultra Long Haul - ULH). Ad inizio 2009 risultano attivi circa 170 sistemi DWDM, per un totale di quasi 40.000 km di collegamenti. Il grafico in figura 15 rappresenta la distribuzione delle lunghezze dei collegamenti in esercizio. Le lunghezze minori sono relative ai collegamenti meno recenti; dal 2006 in poi la tecnologia DWDM ULH di terza generazione ha consentito di realizzare sistemi con lunghezza fino a 1200 km senza rigenerazione elettrica. Inoltre, nei sistemi più recenti sono state inserite le funzionalità di Optical Add & Drop Multiplexing (OADM) lungo linea, ovvero la possibilità di inserire/terminare canali ottici in siti lungo linea e non solo nei siti terminali. I sistemi DWDM presenti nella Rete Nazionale di Telecom Italia sono principalmente forniti da Alcatel- Lucent e da Ericsson. 77 trasm_ottica:Layout_NT 06/03/2009 11.54 Pagina 78 L’evoluzione della trasmissione ottica - Sergio augusto, Valentina Brizi, rossella Tavilla Figura 15 - Distribuzione delle lunghezze dei sistemi DWDm Attualmente nello strato ottico non sono state implementate funzionalità di protezione e di commutazione delle lunghezze d’onda: i sistemi sono tutti realizzati in modalità punto – punto e tutti i meccanismi di protezione del traffico sono implementati dalle reti elettriche SDH Phoenix e Arianna. La rete Arianna, sviluppata dal 1999 al 2003, è una rete SDH che si basa su un’architettura ad anelli (su 4 o 6 nodi) aventi velocità di linea pari a 2,5 Gbit/s. Più dettagliatamente, la struttura della rete Arianna prevede un livello di Backbone ad altissima disponibilità concentrato sui 16 nodi nazionali principali ed un livello di raccolta regionale/nazionale. Le sezioni trasmissive degli anelli sono costruite utilizzando in alcuni casi direttamente la fibra ottica e, nella maggior parte dei casi, lunghezze ottiche a 2,5 Gbit/s dei sistemi DWDM sopra descritti. La Rete Arianna ha eccellenti prestazioni in termini di disponibilità; i meccanismi di protezione utilizzati sono quelli classici del mondo SDH: in particolare MSP - Ring a 4 fibre per gli anelli del Backbone di primo livello e SNCP per tutti gli altri anelli. Come sopra evidenziato la rete Arianna è nata per il trasporto del traffico tradizionale 78 di tipo voce tipicamente statico e con elevati requisiti in termini di disponibilità del servizio. Nel momento in cui traffico e servizio di tipo IP hanno iniziato a svilupparsi in maniera significativa, l’architettura di rete ha evidenziato limiti di flessibilità, scalabilità, efficienza ed integrazione con le tecnologie più innovative. La rete Arianna è tuttora in esercizio ed è principalmente utilizzata per i servizi basati su VC4 7 strutturati. Per superare i limiti sopra indicati e sviluppare una piattaforma di rete che consentisse di soddisfare le nuove esigenze del traffico garantendo contestualmente la riduzione dei costi associati, dalla fine del 2003 è iniziata la realizzazione della rete Phoenix i cui obiettivi principali erano l’ottimizzazione degli investimenti, la fornitura di nuovi servizi di connettività, la diversificazione della disponibilità dei servizi di trasporto offerti e la riduzione dei tempi di provisioning. La rete Phoenix [2] è una rete SDH organizzata su una maglia di 40 nodi di cross connessione con matrice elettrica ed interfacce ottiche. È in grado di proteggere i circuiti sia mediante meccanismi di protezione classica come l’SNCP 1+1, sia mediante sofisticati meccanismi di restoration. In particolare i nodi di Phoenix sono di tre tipologie, in base alla capacità equivalente implementata: 80 Gbit/s, 320 Gbit/s e 960 Gbit/s. Il cuore dei nodi è costituito da una matrice che opera cross-connessioni a livello di VC4. La tecnologia utilizzata per i nodi 7 VC4: è il payload della struttura digitale della gerarchia SDH STM-1 a 155 Mbit/s NOTIzIarIO TECNICO TELECOm ITaLIa - anno18 NumeroUNO2009 trasm_ottica:Layout_NT 06/03/2009 11.54 Pagina 79 L’evoluzione della trasmissione ottica - Sergio augusto, Valentina Brizi, rossella Tavilla della rete Phoenix ed il relativo piano di controllo sono forniti da Ericsson. Anche la rete Phoenix utilizza per le interconnessioni tra i vari nodi le lunghezze ottiche dei sistemi DWDM dello strato ottico; inizialmente tramite collegamenti di linea del tipo a 2,5 Gbit/s e, in seguito e tuttora, a 10 Gbit/s. Phoenix è stata una delle prime reti trasmissive al mondo ad implementare un piano di controllo GMPLS centralizzato, utilizzato sia per il provisioning sia per la protezione del traffico. Alla fine del 2008 la rete è composta da circa 40 nodi e trasporta circuiti dal 155 Mbit/s al 10 Gbit/s per una quantità di banda complessiva pari a quasi 4000 flussi a 155 Mbit/s equivalenti. Il layer ottico DWDM di lunga distanza costituisce, infine, l’infrastruttura di trasporto tramite la quale vengono forniti servizi di connettività nazionale ad alta velocità, sia per le infrastrutture proprietarie di Telecom Italia, quali la rete di BackBone IP (OPB [9]), sia per Clienti Wholesale (altri OLO o ISP) e Clienti Retail (Banche, Ministeri, grandi società). Questi servizi, denominati “lambda services” prevedono la fornitura di uno o più canali ottici nazionali (lambda) con consegna al Cliente finale di circuiti con terminazione di tipo SDH, con velocità dal 155 Mbit/s al 10 Gbit/s, e di tipo dati, con terminazioni quali GbE e 10 GbE. 3.2 Una possibile evoluzione della rete trasmissiva di lunga distanza Da un lato i progressi effettuati nel campo delle tecnologie nell’ultimo quinquennio descritti nelle sezioni precedenti, dall’altro le criticità attualmente presenti nel backbone nazionale attuale spingono a pensare a strategie evolutive che tengano in considerazione entrambi gli aspetti. NOTIzIarIO TECNICO TELECOm ITaLIa - anno18 NumeroUNO2009 In particolare, la rete attuale presenta alcuni punti di debolezza sia tecnologici sia di scalabilità; la rete Phoenix è infatti realizzata con una tecnologia che risale al 2003 e non è facilmente modificabile per garantire il trasporto dei nuovi servizi ed il soddisfacimento delle nuove funzionalità che invece il mercato inizia a richiedere, quali il trasporto di segnali a 10 Gbe e del 40 Gbit/s, la possibilità di proteggere in canali ottici in maniera trasparente e la possibilità di offrire servizi del tipo banda a richiesta (BoD, Bandwidth on Demand). Inoltre, essendo una rete che lavora a livello di singolo VC4 (ad esempio un segnale GbE viene trasportato “smontandolo” in 7 VC4), presenta problemi di scalabilità dei nodi e di numerosità degli elementi di rete (circuiti) da gestire. D’altro canto, anche lo strato ottico per come costruito fino ad oggi presenta alcune limitazioni dovute fondamentalmente alla frammentazione dei vari link che, oltretutto, sono anche di fornitori differenti. Questo implica tempi di Creation (realizzazione) e di Provisioning (attivazione dei flussi end-toend) in molti casi lunghi. Infine, va considerata l’obsolescenza dei sistemi DWDM di prima generazione che sono oramai alla soglia dei 10 anni di vita. Risulta quindi necessario delineare una strategia evolutiva che tenga conto degli attuali punti di debolezza e che al contempo sia ispirata dalle seguenti linee guida: consolidamento delle piattaforme di rete mediante la razionalizzazione delle varie piattaforme di backbone e lo spegnimento delle reti obsolete, riduzione/difesa dei Total Cost of Ownership (TCO, CapEx e OpEx) e miglioramento della disponibilità dei servizi offerti. Il driver fondamentale rimane però l’evoluzione del traffico, in termini di matrice (da dove a dove), di banda (quanto), di granularità (come) e di requisiti di disponibilità richiesti. La difficoltà nell’avere indicazioni chiare in merito all’evoluzione del traffico (a parte il fatto che “aumenti”) aggiunge un ulteriore re- 79 trasm_ottica:Layout_NT 06/03/2009 11.54 Pagina 80 L’evoluzione della trasmissione ottica - Sergio augusto, Valentina Brizi, rossella Tavilla quisito alla piattaforma di rete futura, che deve essere legata il meno possibile ad una prefissata matrice di traffico ma deve essere in grado di adattarsi a diversi possibili scenari. Tutte le considerazioni fin qui esposte, unite ad un’attività di scouting effettuata nel corso del 2008 con i principali fornitori di tecnologie trasmissive a livello mondiale, portano ad individuare come soluzione a tendere per la nuova piattaforma di trasporto un’architettura su due layer indipendenti: un layer completamente fotonico (Photonic Layer, PL) e un layer elettrico (Bandwidth Management Layer, BML). Il layer fotonico sarà realizzato con le nuove tecnologie disponibili descritte precedentemente, ovvero nodi ottici multidegree con tecnologia WSS, capacità di linea di 80 lunghezze d’onda a 40 Gbit/s e evolvibile verso applicazioni di restoration ottica con control plane GMPLS dedicato; il layer elettrico, dedicato al grooming ed alla gestione del traffico a bassa velocità (VC4 nativi e concatenati), con meccanismi di restoration, potrà costituire l’evoluzione dell’attuale rete Phoenix, con l’adozione della tecnologia OTN. 80 Nella figura 16 è schematizzata l’architettura appena descritta, con evidenza del PL, del BML, dello strato di sistemi DWDM esistenti (lo strato ottico di cui al paragrafo 2.1) e le modalità di interlavoro tra i vari layer di rete. Lo scouting tecnologico effettuato con tutti i maggiori fornitori ha evidenziato anche alcuni fatti interessanti. Innanzitutto le due tecnologie in gioco, l’OTN (Nodi Elettrici) e la Fotonica (Nodi Ottici WSS) non sono in competizione tra di loro, ma possono essere sviluppate indipendentemente, da un punto di vista temporale e architetturale, senza che ciò precluda una loro integrazione successiva. In secondo luogo, l’applicazione della tecnologia fotonica comporta dei benefici economici immediati sugli investimenti tale da suggerire la realizzazione di un PL esteso su tutti i nodi della rete nazionale. Infine, mentre la tecnologia Fotonica risulta effettivamente disponibile commercialmente ed è già in corso di sviluppo presso molti Operatori nel mondo, la tecnologia OTN risulta an- Figura 16 - Possibile architettura della nuova rete trasmissiva nazionale NOTIzIarIO TECNICO TELECOm ITaLIa - anno18 NumeroUNO2009 trasm_ottica:Layout_NT 06/03/2009 11.54 Pagina 81 L’evoluzione della trasmissione ottica - Sergio augusto, Valentina Brizi, rossella Tavilla cora in fase di consolidamento sia da un punto di vista degli standard, che delle applicazioni e di apprezzamento sul mercato. L’idea è quindi che la nuova rete trasmissiva nazionale preveda lo sviluppo da subito di una rete Fotonica estesa a tutti i nodi della Rete di Trasporto Nazionale ed utilizzo della rete Phoenix per il traffico con bitrate inferiore a 1 Gbit/s e, successivamente, lo sviluppo e l’integrazione di uno strato di rete OTN che affianchi e sostituisca gradualmente la rete Phoenix. La figura 17 illustra la struttura di un generico nodo della nuova piattaforma. È inoltre indicata anche l’eventuale interconnessione verso i sistemi DWDM attualmente esistenti. Va infine evidenziato che le funzionalità Fotonica e OTN possono essere sviluppate su apparati distinti (e di fornitori diversi) aventi Piani di Controllo indipendenti o possono essere integrate in un unico apparato con un Piano di Controllo unico sia per il livello elettrico sia per il livello ottico. 3.3 La rete trasmissiva regionale e metropolitana L’architettura della rete regionale prevede l’impiego di tecnologia DWDM (di fornitura Alcatel-Lucent, Ericsson, Huawei, Nokia Siemens Networks, Nortel) con una topologia caratterizzata da strutture ad anelli e puntopunto. Gli anelli tipicamente sono utilizzati NOTIzIarIO TECNICO TELECOm ITaLIa - anno18 NumeroUNO2009 Figura 17 - architettura di un nodo della nuova rete trasmissiva nazionale per realizzare infrastrutture indipendenti per servizi a pacchetto (1GbE e 10GbE) su canali ottici protetti e non protetti e per il soccorso fibra, tipicamente per chiudere anelli SDH, su canali ottici non protetti. Le strutture lineari punto-punto protette e non protette sono dedicate in modo esclusivo a grandi clienti business o per soluzioni infrastrutturali per il soccorso fibra. Le dimensioni delle singole reti hanno un’elevata variabilità, partendo dai 50 km e arrivando a superare i 300 km, con un numero di nodi variabile da 3 a 9. La rete WDM regionale ha il triplice obiettivo di offrire una soluzione alternativa alla posa di nuova fibra utilizzata da apparati legacy SDH e NG-SDH (soccorso fibra), di connettere con collegamenti 10GbE non protetti tutte le sedi di Feeder dei capoluoghi minori ai due switch Metro di riferimento della rete OPM (trasporto OPM) e di offrire a clienti business di medie-grandi dimensioni soluzioni di trasporto integrate in progetti realizzati su base gara. 81 trasm_ottica:Layout_NT 06/03/2009 11.54 Pagina 82 L’evoluzione della trasmissione ottica - Sergio augusto, Valentina Brizi, rossella Tavilla La rete ottica WDM in ambito metropolitano può essere distinta nelle sue sezioni di Metro-Core e di Metro-Access. La sezione di rete Metro-Core utilizza la stessa tecnologia DWDM impiegata in ambito regionale: è fisicamente realizzata da sottoreti con topologie ad anello di estensione massima di circa 80-100 km in corrispondenza dei principali capoluoghi. Tali sottoreti consentono il trasporto di 32/40 canali ottici con bitrate massimo di 10 Gbit/s con possibilità di rigenerazione elettro-ottica (3R) del singolo segnale ottico, compensazione della dispersione cromatica e amplificazione del segnale aggregato. La maggior parte degli anelli sono stati realizzati in concomitanza delle varie fasi di sviluppo del progetto IPTV dal 2004 al 2006 e sono oggi impiegati per trasportare il traffico aggregato dal primo livello di Feeder verso il secondo livello di Metro della rete OPM con collegamenti di tipo 10GbE non protetti. Gli anelli sono composti da nodi in parte colocati con gli switch della rete OPM, in parte strategicamente posizionati nelle centrali di Telecom Italia. La stessa infrastruttura infatti è dedicata anche alla fornitura di collegamenti protetti e non protetti, sempre in ambito urbano, di tipo SDH (STM1/4/16/64), Ethernet (1GbE, 10GbE) e SAN (ESCON, FC, FICON) per soccorso fibra e clientela business. La sezione di rete Metro-Access è realizzata con anelli di tipo CWDM (di fornitura Alcatel-Lucent, Pirelli-PGT, Nokia Siemens Networks) che prevedono un diametro massimo di circa 50 km, con un numero medio di 4 centrali collegate verso un nodo di raccolta, detto hub. Ciascun anello è in grado di trasportare fino a 8 canali ottici non amplificati con un bitrate, sino ad oggi, non superiore a 2,5 Gbit/s. Sono già disponibili e a breve saranno rilasciati in rete espansioni sino a 16 canali e fino a 16 canali DWDM a 2,5Gbit/s e 10Gbit/s. Anche questa sezione di rete ha avuto il massimo impulso durante lo sviluppo del pro- 82 getto IPTV e viene utilizzata per raccogliere il traffico originato da tutti i dispositivi che afferiscono alla OPM di TI, come i DSLAM Ethernet, i remote Feeder, i nodi Gateway A (GTW A) per il backhauling mobile e gli switch della clientela business, e diretto su collegamenti di tipo 1GbE verso i Feeder OPM colocati con il nodo hub. Non esiste, ad oggi, una struttura di interconnessione tra le varie sezioni di rete Metro e Regionale: gli anelli Metro-Access, gli anelli Metro-core e quelli Regional non hanno punti di interconnessione comuni. Per completezza di informazione, è doveroso aprire una breve parentesi sulla tecnologia NG-SDH usata nella rete Metro-Regional di Telecom Italia, a cui si è fatto cenno in precedenza. Apparati di questo tipo sono stati introdotti in rete per permettere il trasporto efficiente di flussi dati Ethernet su una rete sincrona, arricchendo i tradizionali nodi SDH con funzionalità per il mappaggio del flusso asincrono di trame/pacchetti dati in quello sincrono di container VC4 8, per l’utilizzo più efficiente della capacità SDH con la concatenazione virtuale degli n VC4 usati per trasportare i flusso dati 9 e con la possibilità di modulare dinamicamente la banda disponibile della connessione di trasporto 10. Viste le elevate capacità richieste dalle interfacce GbE e 10GbE della OPM e il progressivo approssimarsi del costo degli apparati WDM a quello degli apparati SDH, la scelta tecnologica si è però orientata verso una soluzione puramente fotonica mentre l’utilizzo del trasporto SDH si è rivelato conveniente in un numero di casi percentualmente limitato. La scelta della tecnologia WDM è stata influenzata anche da un altro fattore: oltre al trasporto trasparente di flussi SDH (da STM-1 a 8 Con il protocollo GFP specificato nella raccomandazione dell’ITU-T G7041 9 Con lo standard VCAT specificato nelle raccomandazioni dell’ITU-T G.707 e G.783 10 Con lo standard LCAS specificato nelle raccomandazioni dell’ITU-T G.7042 NOTIzIarIO TECNICO TELECOm ITaLIa - anno18 NumeroUNO2009 trasm_ottica:Layout_NT 06/03/2009 11.54 Pagina 83 L’evoluzione della trasmissione ottica - Sergio augusto, Valentina Brizi, rossella Tavilla STM-64) e Ethernet (Fast Ethernet, 1 Gigabit-Ethernet e 10 Gigabit-Ethernet), gli apparati a multiplazione di lunghezza d’onda sono gli unici che offrono la possibilità di trasporto e garanzie di massima trasparenza temporale per i flussi di tipo di tipo ESCON, FICON e Fiber Channel, usati in applicazioni di Business Continuity (data mirroring per disaster recovery, storage remoto o interconnessione di Data Center): tutti i protocolli citati funzionano infatti con meccanismi di riscontro della singola trama e ogni eventuale ritardo nella propagazione si trasforma in una diminuzione del bitrate netto dell’applicazione. 3.4 L’evoluzione della rete trasmissiva regionale e metropolitana: gli impatti del Next Generation Access Per poter analizzare i possibili scenari evolutivi della rete trasmissiva regionale e metropolitana è necessario descrivere brevemente la rete che maggiormente ne sfrutta il servizio di trasporto: la rete OPM. La rete OPM [4] è stata pensata per l’offerta di servizi di livello 2 a clientela residen- ziale, affari e wholesale. I nodi OPM sono dislocati nei principali centri urbani del Paese e sono organizzati in una struttura a due livelli gerarchici (figura 18): un primo livello gerarchico inferiore rappresentato dai nodi Feeder ed un secondo livello gerarchico di nodi Metro. I Metro sono i nodi con funzioni di aggregazione e di connessione con il backbone di trasporto IP: sono di solito colocati con i nodi della rete OPB e ad essi connessi con collegamenti 10GbE. I nodi Feeder hanno il compito di raccogliere i flussi a bassa velocità (1G) e di aggregarli verso i Metro. La connessione Feeder-Metro si realizza con collegamenti fisici non protetti 10 GbE trasportati su rete ottica DWDM. Ogni feeder è connesso a due Metro: per questo si utilizzano collegamenti di trasporto in ambito urbano o regionale, in base alla dislocazione fisica della coppia di Metro di riferimento. I Feeder sono connessi con i nodi della rete di accesso (DSLAM ADSL, switch o router, Node B delle antenne UMTS): a questo livello, i collegamenti fisici sono di tipo 1GbE, in alcuni casi trasportati su fibra ottica o su rete NG-SDH, ma nella maggioranza dei casi il trasporto avviene su rete ottica DWDM e CWDM; una coppia di flussi 1GbE è di so- Figura 18 - La rete OPm NOTIzIarIO TECNICO TELECOm ITaLIa - anno18 NumeroUNO2009 83 trasm_ottica:Layout_NT 06/03/2009 11.54 Pagina 84 L’evoluzione della trasmissione ottica - Sergio augusto, Valentina Brizi, rossella Tavilla lito multiplata su un canale ottico a 2,5 Gbit/s protetto a livello ottico. Le connessioni fisiche a 10 Gbit/s e 2,5 Gbit/s sono realizzate da apparati di trasporto colocati con i nodi della OPM e della rete di accesso: tutte le interfacce ottiche 10GbE e 1GbE sono quindi duplicate sulla rete di switch, sulla rete di accesso e sulla rete di trasporto, con ovvie conseguenze in termini di costi legati alla scalabilità dell’architettura attuale. La rete OPM e la rete di trasporto che le offre servizio dovranno prevedere una crescita compatibile con le ipotesi di incremento del traffico IP del prossimo futuro. Infatti, l’offerta residenziale sarà legata ad una banda potenzialmente maggiore di quella attuale grazie alle reti di accesso di nuova concezione. In Telecom Italia la nuova rete di accesso, denominata NGN2 Figura 19 - Una possibile evoluzione della rete a strati con la Packet Optical Transport Network 84 [3] è realizzata con tecnologia FTTx secondo i concetti dettati dell’Ethernet First Mile (EFM): dispositivi GPON (Gigabitethernet Passive Optical Network) coprono l’ultimo miglio della rete di accesso con modalità FTTB/FTTCab (a tendere FTTH); l’ultimo tratto verso le singole utenze è ancora coperto con una connessione fisica in rame con tecnologie di raccolta VDSL. Il singolo utente residenziale avrà accesso alla rete di Telecom Italia attraverso una struttura ethernet, quella della GPON della NGN2, con una capacità di banda globale per la singola struttura GPON pari a 2,5 Gbit/s. Già sono disponibili sul mercato soluzioni come WDM-PON che permettono una capacità di banda almeno di un ordine di grandezza superiore. La tipologia di offerta rivolta alla clientela business dovrebbe invece rimanere invariata, con un incremento, però delle velocità di banda messe a disposizione. Le interfacce Ethernet a bassa velocità 10/100Mbit/S verranno progressivamente abbandonate per essere sostituite da interfacce a velocità minima di 1 Gbit/s. Infine, il backhauling delle reti mobili dovrebbe abbandonare a breve la tecnologia NOTIzIarIO TECNICO TELECOm ITaLIa - anno18 NumeroUNO2009 trasm_ottica:Layout_NT 06/03/2009 11.54 Pagina 85 L’evoluzione della trasmissione ottica - Sergio augusto, Valentina Brizi, rossella Tavilla ATM e passare a quella Ethernet. I Node-B delle base station UMTS saranno infatti equipaggiati con interfacce GbE che sostituiranno le attuali interfacce ATM passando dagli nx2Mbit/s attuali ad una interfaccia 1GbE. La rete di trasporto WDM si troverà quindi a dover gestire un traffico in prevalenza a pacchetto di tipo Ethernet, e allo stesso tempo e per un periodo non facilmente prevedibile, dovrà continuare a garantire l’offerta attuale di servizi legacy TDM e di servizi SAN. Le richieste di servizi sincroni su rete SDH sono previste in calo, ma rappresenteranno ancora a lungo una quota consistente di mercato, mentre per i servizi SAN non si prevede alcuna riduzione. Ormai tutti i principali fornitori di apparati di trasporto (Alcatel-Lucent e Huawei) hanno reso disponibili nei loro listini linee di prodotto che realizzano il paradigma di integrazione in un solo sistema delle funzionalità di trasporto e di switching e forwarding del traffico di livello 2. L’elaborazione dei pacchetti è affidata al nuovo strato di rete, fisicamente realizzato con matrici elettriche che oggi possono coesistere con quelle tradizionali SDH: le matrici universali dovranno a tendere permettere di sostituire completamente le matrici TDM e garantire la possibilità di gestire indifferentemente e contemporaneamente strutture logiche a pacchetto e sincrone. Per questa classe di apparati è data anche la possibilità di integrare la tecnologia CWDM o DWDM per una maggiore efficienza anche nello sfruttamento delle risorse fisiche di rete come le fibre ottiche. La transizione dalla coesistenza delle matrici a pacchetto e SDH a quella esclusivamente a pacchetto sarà legata all’affermarsi di scenari con una netta prevalenza di traffico dati rispetto a quello legacy, contrariamente a quanto ancora si registra in rete. Per Operatori che, come Telecom Italia, hanno un’esperienza decennale con reti di trasporto sincrone, soluzioni come quelle appena descritte possono offrire convenienza, non tanto in termini di investimenti realizza- NOTIzIarIO TECNICO TELECOm ITaLIa - anno18 NumeroUNO2009 tivi, quanto per la promessa di più semplice integrazione della nuova tecnologia nei processi aziendali. Molti costruttori di apparati dati hanno cominciato ad inserire nei loro cataloghi anche sistemi che implementano funzionalità di trasporto Carrier Grade anche per l’Ethernet: questo tipo di sistemi rappresenta un’evoluzione degli switch Ethernet oggi in commercio sui quali sono integrate le funzionalità previste dal PBB-TE (Nortel) o dal T-MPLS (Ericsson, Huawei), oltre a funzionalità di tipo CWDM o DWM passivo. Il pregio di questa tecnologia è da associare al costo che dovrebbe mantenersi contenuto rispetto a quello di apparati con funzionalità più complesse come quelli misti SDH/T-MPLS. Confrontando quanto oggi commercialmente disponibile per gli apparati basati su T-MPLS e quelli basati sul Carrier Ethernet, la differenza di costo delle due classi di sistemi sembra essere importante, tanto da suggerire, secondo alcuni fornitori, un loro utilizzo in sezioni di rete differenti. Rimanendo nell’ottica di una rete convergente di trasporto a pacchetto, e mantenendo la suddivisione in sezioni di rete Metro Access, Metro Core e Regional come nel caso della rete di Metro/Regional di Telecom Italia, un’ipotesi di implementazione potrebbe essere quella di impiego degli apparati Carrier Ethernet, meno costosi e a più bassa complessità, nelle sezioni periferiche della rete, e di inserimento nelle sezioni Metro-Core e Regional dei sistemi T-MPLS a maggiore complessità, trovando una valida motivazione da associare al loro maggior costo. Qualunque saranno le scelte sistemistiche e architetturali che verranno prese per l’evoluzione verso la Packet Optical Transport Network, un fattore chiave che non dovrà essere sottovalutato sarà la capacità degli organismi di standardizzazione di fornire un supporto per il network management, ovvero un object model dettagliato per i nuovi sistemi della rete integrata. 85 trasm_ottica:Layout_NT 06/03/2009 11.55 Pagina 86 L’evoluzione della trasmissione ottica - Sergio augusto, Valentina Brizi, rossella Tavilla Quanto costa trasportare un bit su una fibra ottica? Nel seguito verranno esposte alcune considerazioni su quello che, nel corso degli ultimi anni, è stato l’andamento del costo del trasporto, focalizzandosi sugli aspetti di costo relativi agli investimenti sia per il trasporto di lunga distanza nazionale sia per il trasporto regionale e metropolitano. Gli aspetti che hanno determinato e determinano l’evoluzione dei costi sono ovviamente due: l’innovazione tecnologica e la competizione tra fornitori. Per quanto riguarda il trasporto DWDM i momenti di forte discontinuità tecnologica con conseguente riduzione dei costi si sono verificati al passaggio dalla prima alla seconda generazione dei sistemi DWDM, con incremento del numero di lunghezze d’onda su singola fibra da 16 a 40 e al passaggio della velocità di linea per singola lunghezza d’onda da 2,5 Gbit/s a 10 Gbit/s. Entrambi questi passaggi si sono verificati nei primi anni del 2000; successivamente, l’evoluzione della tecnologia ha consentito la realizzazione di sistemi sempre più lunghi e quindi con un minor numero di rigenerazioni elettriche, con un graduale e costante miglioramento delle prestazioni. Il grosso driver che ha però governato la riduzione di costo negli anni più recenti è stato la competizione economica tra Fornitori; il processo di individuazione di uno o più Fornitori per una determinata tipologia di apparati preveder infatti una fase di scouting tecnico ed economico ed una fase di vera e propria competizione economica. Figura a1 - andamento del costo del trasporto di un flusso 10Gbit/s tra roma e milano Tale modalità di individuazione dei Fornitori e l’aumentare della frequenza con cui questi meccanismi di selezione/competizione sono stati implementati hanno, soprattutto nell’ultimo periodo, consentito di traguardare livelli di compressione dei prezzi degli apparati decisamente rilevanti. I grafici illustrano l’andamento nel corso degli anni del costo (inteso come investimento associato per fornitura in opera degli apparati) previsto per trasportare una capacità equivalente di 10 Gbit/s rispettivamente sulla rete DWDM di lunga distanza (nel caso specifico l’esempio riguarda un collegamento da Roma a Milano) e sulla rete DWDM Metro (considerando un anello medio di 300 km). Il grosso salto tra il 2002 ed il 2003 tiene conto del passaggio dalla velocità di linea da 86 NOTIzIarIO TECNICO TELECOm ITaLIa - anno18 NumeroUNO2009 trasm_ottica:Layout_NT 06/03/2009 11.55 Pagina 87 L’evoluzione della trasmissione ottica - Sergio augusto, Valentina Brizi, rossella Tavilla Figura a2 - andamento del costo del trasporto di un flusso 10Gbit/s su un anello di riferimento in ambito metropolitano 2,5 a 10 Gbit/s; i delta del 2006 e 2007 sono invece l’effetto di competizioni economiche tra i Fornitori. Anche il comparto DWDM Metro/Regionale e CWDM metro ha beneficiato dei progressi tecnologici intervenuti nei primi anni di questo decennio, e la riduzione del costo degli apparati è sicuramente legata alle sempre migliori prestazioni dei sistemi in termini di rigenerazione e di multiplazione di flussi cliente a bassa velocità su canali ottici a 2,5 Gbit/s e soprattutto 10 Gbit/s, anche se il contributo più significativo alla costante discesa del prezzo delle voci di listino è indubbiamente quello legato alla competizione economica tra i fornitori, attuata con meccanismi analoghi a quelli esposti per i sistemi usati nella sezione del trasporto su lunga distanza. 4 Conclusioni Negli ultimi anni lo sviluppo delle tecnologie della trasmissione, maturato a fronte delle necessità di trasportare nuovi servizi, principalmente IP, con forte attenzione alla riduzione degli investimenti, ha creato le condizioni per poter modificare sostanzialmente il paradigma del trasporto. Le nuove tecnologie sono pronte per essere introdotte nelle reti degli Operatori e per rendere fruibili i vantaggi promessi. Tutti gli Operatori stanno definendo le proprie NOTIzIarIO TECNICO TELECOm ITaLIa - anno18 NumeroUNO2009 strategie evolutive, anche se il contesto economico/finanziario ha rallentato tale processo. Di certo la questione più sfidante da risolvere è quella dell’integrazione dei processi aziendali e dei sistemi di gestione e di supervisione, che attualmente sono specializzati per reti diverse sia per concezione, sia per evoluzione e funzionamento: quelle di trasporto a circuito (SDH/WDM) e quelle dati (Ethernet). La capacità di risolvere quella che oggi si presenta come una dicotomia sarà decisiva per il successo di qualunque strategia si deciderà di seguire. 87 trasm_ottica:Layout_NT 06/03/2009 11.55 Pagina 88 L’evoluzione della trasmissione ottica - Sergio augusto, Valentina Brizi, rossella Tavilla A OAM Operation Administration and Maintenance OAM&P Operation Administration Maintenance and Protection ODU Optical Data Unit OLO Other Licensed Operator OPM Optical Packet Metro OTH Optical Transport Hierarchy OTN Optical Transport Network PBB Provider Backbone Bridges PBB-TE Provider Backbone Bridges Traffic Engineering PBT Provider Backbone Transport PMD Polarization Mode Dispersion ROADM Reconfigurable Optical Add Drop Multiplexer RTN Rete di Trasporto Nazionale SAN Storage Area Network SDH Synchronous Digital Hierarchy SNCP Sub Network Connection Protection TCO Total Cost of Ownership TDM Time Division Multiplexing T-MPLS Transport – Multi Protocol Label Switching ULH Ultra Long Haul UMTS Universal Mobile Telecommunications System VC4 Virtual Container 4 VDSL Very High Speed DSL VLH Very Long Haul WDM Wavelength Division Multiplexing WDM-PON WDM Passive Optical Network WSS Wavelength Selective Switch CRONIMI ATM CWDM Asynchronous Transfer Mode Coarse Wavelength Division Multiplexing DQPSK Differential Quadrature Phase Shift Keying DP-DQPSK Dual Polarization DQPSK DSLAM Digital Subscriber Line Access Multiplexer DWDM Dense Wavelength Division Multiplexing ESCON Enterprise Systems Connection FC Fiber Channel FEC Forward Error Correction FICON Fiber Connectivity FTTB Fiber To The Building FTTCab Fiber To The Cabinet FTTx Fiber To The x GBE GigaBit Ethernet GMPLS Generalized Multi Protocol Label Switching GPON Gigaethernet Passive Optical Network GTW-A Gateway-A IEEE Institute of Electrical and Electronic Engineers IETF Internet Engineering Task Force ISP Internet Service Provider ITU-T International Telecommunication Union - Telecommunication Standardization Bureau LAN Local Area Network LH Long Haul LSP Label Switched Path MAC Media Access Control MAN Metro Area Network MPLS Multi Protocol Label Switching MPLS-TP Multi Protocol Label Switching – Transport Profile MSP-RING Multiplex Section Protection Ring NGN2 Next Generation Network 2 NG-SDH New Generation – Synchronous Digital Hierarchy OADM Optical Add and Drop Multiplexer 88 B IBLIOGRAFIA [1] “La rete di trasporto ottico (OTN): stato dell’arte e prospettive evolutive” di G. Aureli e P. Pagnan, Notiziario Tecnico di Telecom Italia, Anno 10, Nr. 1, Aprile 2001 [2] “Phoenix: la nuova rete di trasporto nazionale” di S. Augusto e P. Pagnan, Notiziario Tecnico di Telecom Italia, Anno 13, Nr. 2, Dicembre 2004 NOTIzIarIO TECNICO TELECOm ITaLIa - anno18 NumeroUNO2009 trasm_ottica:Layout_NT 06/03/2009 11.55 Pagina 89 L’evoluzione della trasmissione ottica - Sergio augusto, Valentina Brizi, rossella Tavilla [3] “NGN2:il case study Milano” di M. Monacelli, Notiziario Tecnico di Telecom Italia, Anno 2007, Nr. 2. [4] “NGN2: la parte Metro” di M. Bianchetti, G. Picciano, L. Venuto, Notiziario Tecnico di Telecom Italia, Anno 2008, Nr. 2. [5] “PBB-TE, PBT, Carrier Grade Ethernet Transport” TPACK, June 2007. [6] “T-MPLS A New route to carrier ethernet” TPACK, June 2007. [7] “Optical Switching Networks”, Ed. Cambridge University Press 2008, di M. Maier A [8] “I sistemi DWDM: problematiche trasmissive e loro impatto sul progetto dei collegamenti” di G. Aureli e P. Pagnan, Notiziario Tecnico di Telecom Italia, Anno 9 n. 2, Ottobre 2000 [9] “Il Backbone IP di Telecom Italia Wireline” di A.M. Langellotti, S. Mastropietro, F.T. Moretti e A. Soldati, Notiziario Tecnico di Telecom Italia, Anno 13, Nr. 2, Dicembre 2004 [email protected] [email protected] [email protected] UTORI Sergio augusto Valentina Brizi rossella Tavilla diplomato in Telecomunicazioni, entra in Azienda nel 1983 per occuparsi di valutazioni tecnicoeconomiche di nuove tecnologie nella rete trasmissiva a lunga distanza. Dal 1990 si è occupato di nuove tecnologie e sistemi per la rete di accesso a larga banda. Dal 1997 opera nel gruppo di Ingegneria dove segue le attività di test, redazione specifiche e norme tecniche di apparati trasmissivi DWDM e reti GMPLS ■ laureata nel 1998 in Ingegneria delle Telecomunicazioni, nello stesso anno entra in Telecom Italia, dove ha seguito lo sviluppo della prima rete SDH di lunga distanza e dei primi sistemi DWDM in Italia. Da diversi anni opera nel gruppo di Ingegneria che segue l’industrializzazione degli apparati dedicati al Trasporto Ottico; in particolare segue le attività inerenti alle tecnologie ottiche per le reti di trasporto di backbone nazionale e le evoluzioni relative. È autrice e co-autrice di diversi articoli tecnici e contributi pubblicati su riviste scientifiche internazionali o presentati a workshop e conferenze internazionali ■ laureata nel 2000 in Ingegneria delle Telecomunicazioni, lo stesso anno entra in Telecom Italia. Dal 2001 lavora nel settore dell’Ingegneria della rete di trasporto. Si è inizialmente dedicata ai sistemi di Element Management e di Network Management della rete SDH e xWDM. Dal 2003 lavora nell’ingegneria della rete di trasporto dove segue le attività della rete Metro-Regional in tecnologia xWDM e dei relativi sistemi di Element Management ■ NOTIzIarIO TECNICO TELECOm ITaLIa - anno18 NumeroUNO2009 89 Micro e Mini trincea: tecnologie di scavo nel rispetto ambientale NGN L Paolo Trombetti o sviluppo delle reti di nuova generazione costituisce una priorità del sistema Paese; per consentire la posa in tempi rapidi e a costi contenuti delle opere civili necessarie alla posa di nuove infrastrutture di cavi in fibra ottica si stanno sperimentando tecnologie innovative, capaci di recepire sia queste esigenze e al contempo in grado di ridurre i costi socio ambientali connessi all’apertura dei cantieri. Nell’articolo sono descritti i vantaggi dell’applicazione di questi sistemi con specifico riferimento all’impiego della mini e microtrincea, riportando i risultati e le impressioni emerse a seguito della sperimentazione effettuata a Roma nell’ambito del progetto NGN2. 1 Introduzione Il dibattito tecnologico, economico, regolatorio sulle telecomunicazioni in Europa e nel mondo ruota intorno alle reti di nuova generazione (NGN). Il concetto di NGN è sviluppato per tener conto delle nuove realtà nel mondo delle telecomunicazioni, quali la maggiore concorrenza tra Operatori, la cre- 90 scita del traffico di tipo “digitale”, l’utilizzo sempre più intenso di Internet, la domanda crescente di servizi multimediali, il bisogno generale di mobilità e la convergenza di reti e servizi fissi e mobili. Dopo anni di discussione sul tema delle reti NGN, oggi sono disponibili sul mercato soluzioni tecnologiche che permetteranno agli Operatori di compiere un notevole balzo Notiziario tecNico telecom italia - anno18 NumeroUNo2009 micro e mini trincea: tecnologie di scavo nel rispetto ambientale - Paolo trombetti in avanti nelle loro offerte di servizi multimediali a banda larga. Per consentire la diffusione della Rete di Nuova Generazione è indispensabile, però, prevedere la realizzazione di nuove infrastrutture/opere civili con conseguente disponibilità di cospicui investimenti. Infatti a seconda della scelta operata sulle differenti opzioni architetturali e tecnologiche, la realizzazione delle opere civili potrà assumere un peso relativo sul totale degli investimenti. Tale incidenza sarà soprattutto legata alla possibilità di riutilizzo delle infrastrutture esistenti e alla necessità o meno di realizzare la componente verticale del cablaggio (componente interna agli edifici da raggiungere). cune delle quali sono consolidate, altre in via di sviluppo. Tra le diverse metodologie delle tecniche a basso impatto ambientale si è osservato l’uso della minitrincea e dell’evoluzione della microtrincea (Teraspan) in due cantieri per la posa di reti di TLC a Roma. Nella nomenclatura internazionale la ISTT (International Society for Trenchless Technology) ha classificato le tecniche a basso impatto ambientale come quelle tecniche che permettono di effettuare la posa, l’esercizio e la manutenzione delle reti dei sottoservizi, riducendo al minimo, o eliminando del tutto lo scavo a cielo aperto. In tale contesto, ormai dal 2006, la ISTT ha inserito tra queste tecnologie, anche i sistemi di posa della “minitrincea”, i quali, seppur prevedano la realizzazione di uno scavo a cielo aperto, per via delle sue ridotte dimensioni, minimizzano l’impatto ambientale; il gruppo a cui queste tecnologie afferiscono è stato denominato “tecnologie associate”. 2 Cantieri leggeri a ridotto impatto ambientale Scavi ed infrastrutture (canalizzazioni) per la posa dei cavi telefonici vengono solitamente realizzati in ambito urbano sulla sede stradale (sui bordi laterali, sulla banchina, o, in alcuni casi, direttamente sul marciapiede). Le operazioni si svolgono realizzando lo scavo a cielo aperto, posando la canalizzazione , ricoprendo lo scavo stesso con terra e successivamente ripristinando l’asfalto o l’originale copertura tolta durante lo scavo. Del resto la presenza di un cantiere o comunque di un ingombro della sede stradale, del marciapiede o della banchina provoca un notevole disagio, sia per i pedoni sia per i veicoli in transito, direttamente proporzionale all’estensione del cantiere ed alla durata di tali lavori di scavo. Pertanto, minimizzare le dimensioni del cantiere e velocizzarne al massimo l’esecuzione è un obiettivo importante. L’ottimizzazione dei cantieri può essere perseguita applicando diverse tecniche, al- 2.1 Notiziario tecNico telecom italia - anno18 NumeroUNo2009 Le “tecnologie associate” Gli Operatori nord americani alla ricerca di una metodologia di posa per le reti di nuova generazione che fosse al contempo veloce e poco invasiva, hanno induato la tecnica della “minitrincea”. In generale, le tecnologie di posa a basso impatto ambientale si possono raggruppare nelle seguenti categorie a seconda delle loro caratteristiche di impiego (figura 1). Lo scavo a cielo aperto, di norma, comporta tutta una serie di disagi per la cittadinanza, ha ripercussioni negative sull’ambiente e pone condizioni di possibile pericolo/danneggiamento per persone e/o cose. Le tecniche a basso impatto ambientale, invece, hanno la caratteristica di ridurre si- 91 micro e mini trincea: tecnologie di scavo nel rispetto ambientale - Paolo trombetti Figura 1 - la classificazione delle “tecnologie associate” gnificativamente tutti questi aspetti in quanto comportano: ■ minore movimentazione di materiale (sfruttamento di cave, conferimento in discarica); ■ minore traffico di mezzi pesanti; ■ minore tempo e spazio di occupazione del suolo pubblico; ■ minore effrazione del manto stradale, quindi limitato deterioramento dello stesso; ■ minore impatto sulla viabilità veicolare e pedonale e sulle attività commerciali; ■ maggiore sicurezza per il cittadino, grazie all’eliminazione dei pericoli legati agli scavi a cielo aperto; ■ maggiore sicurezza per la manodopera impiegata. Studi condotti da Telecom Italia e Telecom Italia Lab 1 (tramite l’applicazione di un modello di impatto ambientale – EPS , Environ- 1 Valutazione dei costi socio/ambientali delle tecniche di scavo (Luca Giacomelli, Paolo Trombetti) 92 mental Priority Strategies, elaborato dalla Federazione delle Industrie Svedesi) hanno mostrato che, con l’impiego di queste tecniche, i costi socio-ambientali vengono abbattuti di circa l’80%, mentre gli incidenti sui cantieri di circa il 67%. 3 Aspetti normativi Le tecniche descritte si inquadrano nell’ambito legislativo che pone grande attenzione al tema ambientale e che è volto a: ○ evitare ogni possibile spreco; ○ incentivare il riutilizzo delle risorse disponibili; ○ razionalizzare l’impiego del sottosuolo (in quanto risorsa limitata); ○ minimizzare i disagi al traffico veicolare ed alla popolazione. Citiamo, ad esempio, le seguenti prescrizioni di legge: Notiziario tecNico telecom italia - anno18 NumeroUNo2009 micro e mini trincea: tecnologie di scavo nel rispetto ambientale - Paolo trombetti citata, consente agli Enti Locali, gestori delle strade, di derogare a tale prescrizione, qualora siano impiegate tecniche a basso impatto ambientale. Il Decreto Legislativo 30 aprile 1992, n. 285 - Codice della Strada - in base al quale l’attraversamento sotterraneo della sede stradale deve essere eseguito mediante perforazione orizzontale, senza manomettere la massicciata e la pavimentazione. Tale tecnica è stata implementata allo scopo di ridurre le dimensioni dello scavo, in modo da poter ottimizzare le modalità operative mediante l’utilizzo di tecnologie e materiali innovativi e consentire il minor impatto possibile sull’ambiente per la realizzazione delle reti di TLC, pubblica illuminazione, impianti semaforici e impianti di telesorveglianza. La Direttiva della Presidenza del Consiglio dei Ministri del 3 marzo 1999 - Razionale sistemazione nel sottosuolo degli impianti tecnologici - che si pone l’obiettivo di favorire tutte quelle tecniche che minimizzano gli impatti ambientali e la circolazione veicolare. La Direttiva 2001/42/CE recepita nel decreto legislativo 152/06 recante “Norme in materia ambientale” (più conosciuto come “Codice dell’Ambiente”), all’art. 53, comma 1, dispone che sia assicurata la tutela del suolo e del sottosuolo,… In particolare per suolo si intende il territorio, il suolo, il sottosuolo, gli abitanti e le opere infrastrutturali. 4 Con particolare riferimento alla tecnica di posa della “minitrincea” (tecnica che prevede una profondità di scavo limitata a 30/40 cm), si precisa che, nonostante il Codice della Strada prescriva una profondità minima dall’estradosso, in carreggiata, pari ad 1 metro, la Direttiva del 3 marzo 1999, sopra La “minitrincea” La “minitrincea” viene eseguita utilizzando idonee frese/scavacanali a disco (figura 2) montate su opportuna macchina operatrice di piccole dimensioni. Il taglio dello scavo risulta netto in superficie, evitando in modo assoluto di lesionare la pavimentazione limitrofa alla sezione di scavo. Non sono consentiti bruschi cambi di direzione dei percorsi, ove questi siano richiesti dovranno effettuarsi tramite tagli angolati, tali da consentire il rispetto del minimo raggio di curvatura dei minitubetti e/o dei monotubi di raccordo. La tecnica della minitrincea è applicabile, su tracciati che contemplino generalmente superfici asfaltate e/o in calcestruzzo, quali strade e marciapiedi aventi un sottofondo di materiale compatto. L’utilizzo di tale tecnica non è invece consigliabile nei percorsi dove sono presenti strade sterrate, ad eccezione di eventuali brevi attraversamenti stradali (purché comunque con sottofondo di tipo compatto), Figura 2 - lo scavo della “minitrincea” Notiziario tecNico telecom italia - anno18 NumeroUNo2009 93 micro e mini trincea: tecnologie di scavo nel rispetto ambientale - Paolo trombetti che potranno essere realizzati con la stessa tecnica di scavo, utilizzando per il riempimento materiale omogeneo a quello circostante. Tale tecnica non è altresì consigliabile dove sono presenti sottofondi con trovanti di medie dimensioni (aventi un lato > 15 cm) o ghiaiosi o in terreni sciolti quali sabbie, limi, argille o similari. La nuova infrastruttura di posa è idonea a contenere monotubi di diametro 50 e/o 40 mm., che possono essere sotto armati con microtubi, consentendo così di poter disporre di un’infrastruttura in grado di ospitare un maggior numero di cavi in fibra ottica. La “minitrincea” inoltre deve essere normalmente realizzata effettuando contemporaneamente il disfacimento della pavimentazione e uno scavo avente sezione di larghezza minima di 5 cm e profondità compresa tra 30 e 40 cm. Per l’utilizzo di tale tecnica si raccomanda una profondità minima di scavo di 30 cm (figura 3). La determinazione della corretta sede di posa viene valutata in base alla presenza dei sottoservizi ed alla loro posizione, che, oltre ad essere rilevata tramite indagini georadar, Figura 3 - Sezione di scavo della “minitrincea” realizzate fino ad una profondità di 1,5 m oltre all’impiego di eventuali cerca servizi; il tutto anche con le documentazioni cartografiche disponibili presso gli Enti proprietari della strada o dei Servizi. 4.1 Pulizia dello scavo Durante la fase di realizzazione della minitrincea è necessario garantire l’accurata pulizia a secco dello scavo e la contemporanea rimozione dei materiali di risulta. Tali operazioni vengono eseguite con opportuni metodi di abbattimento delle polveri, al fine di mantenere la pulizia del cantiere e di contenere il disagio della cittadinanza e l’inquinamento ambientale. Al termine di questa attività la sezione di scavo deve risultare svuotata e il fondo privo di sassi sporgenti; la trincea stessa e la zona immediatamente circostante devono essere totalmente ripulite dal materiale di risulta, che potrebbe ridurre le caratteristiche meccaniche del materiale di riempimento. La pulizia del solco può avvenire anche contestualmente alla fase di realizzazione della minitrincea, utilizzando solitamente macchine aspiratrici opportunamente collegate alla fresa tramite tubo snodato. Predisposto lo scavo si procede, eseguendo la posa delle strutture di minitubi e/o dei monotubi per poi passare al riempimento dello scavo. 4.2 Riempimento della minitrincea Il riempimento della trincea viene effettuato mediante colatura, entro la sede predisposta, di malta rapida, di consistenza fluida, a base di cementi ad alta resistenza, aggregati selezionati e speciali additivi. Il 94 Notiziario tecNico telecom italia - anno18 NumeroUNo2009 micro e mini trincea: tecnologie di scavo nel rispetto ambientale - Paolo trombetti materiale deve presentare caratteristiche di presa tali da permettere il rilascio di una sede stradale carrabile e idonea all’utilizzo in tempi brevissimi (entro 2-4 ore dalla posa). Nella fase sperimentale un materiale idoneo è stato individuato nel “Trench-Fill”. Il riempimento garantisce le seguenti prestazioni di qualità: ■ stabilità dimensionale in servizio senza registrare alcun cedimento; ■ completo riempimento dello scavo; ■ tempi di presa e uno sviluppo delle resistenze meccaniche tali da permettere la riapertura delle sedi stradali dopo 2-4 ore dall’esecuzione del rinterro; ■ assenza di crepe e/o fessurazioni; ■ impermeabilità all’acqua; ■ elevata resistenza all’abrasione; ■ elevata fluidità e scorrevolezza senza l’ausilio di alcuna compattazione manuale o meccanica. coli dovranno comunque essere rimossi prima della posa del materiale di riempimento. 5 Il materiale di riempimento, oltre a bloccare l’infrastruttura sul fondo della minitrincea, ha la funzione di garantire la protezione sia di tipo meccanico, che dai roditori dell’infrastruttura posata. Durante la posa delle strutture di minitubi e/o di monotubi dovrà essere garantita la geometria dell’infrastruttura e non dovranno verificarsi innalzamenti indesiderati; se necessario, prima di eseguire le attività di riempimento, gli stessi potranno essere preventivamente vincolati sul fondo della minitrincea tramite pesi posizionati in punti discreti lungo lo scavo; tali vin- La ”minitrincea” sperimentale a Roma Nell’ambito del progetto NGN2 a Roma, nell’ottobre 2008 si è proceduto alla prima sperimentazione della tecnica di scavo “minitrincea”, in un tratto di carreggiata individuato su via Faravelli e via Teulada. . La sperimentazione ha previsto il taglio della pavimentazione per circa 90 mt e l’interposizione di un pozzetto 40x80 e di uno 125x80 per alimentare quattro apparati ONU previsti all’interno di tre fabbricati (figura 4). La figura 5 evidenzia lo scavo risultante, pulito attraverso una spazzola con serbatoio posta sul braccio di un Bob Cat. Successivamente alla realizzazione del taglio e alla pulitura dello stesso si è provveduto alla posa dei tubi (figura 6a e successivamente alla chiusura della minitrincea con il riempimento figura 6b). Figura 4 - Fasi dello scavo “minitrincea” con scavo di circa 5 cm Notiziario tecNico telecom italia - anno18 NumeroUNo2009 95 micro e mini trincea: tecnologie di scavo nel rispetto ambientale - Paolo trombetti Figura 5 - Pulizia dello scavo Nella figura 7 lo stato dei lavori a distanza di qualche settimana. Nell’ambito della stessa sperimentazione “romana” si è anche provveduto a testare un materiale innovativo per il riempimento dello scavo. Il materiale in oggetto è costituito da un nastro che su un lato presenta un adesivo a forte presa e sull’altro materiale asfaltico sabbioso di circa 3 mm di spessore. Il nastro è stato posizionato attraverso adeguata pressatura in opera sulla traccia di minitrincea eseguita su marciapiede (figura 8). Figura 6 - la posa dei cavi e il riempimento (a) 96 (b) Notiziario tecNico telecom italia - anno18 NumeroUNo2009 micro e mini trincea: tecnologie di scavo nel rispetto ambientale - Paolo trombetti Figura 7 - la “minitrincea” a fine lavori Figura 8 - il “nuovo” riempimento La sperimentazione ha messo in evidenza le potenzialità di questo sistema che, pur presentando ancora dei margini di miglioramento, già ora consente, in ambito urbano, di completare (scavo, posa tubi e chiusura scavo), un cantiere di 90 m in sole 2 ore, consentendo ai residenti di accedere ai garage, posti per i diversamente abili o abitazioni senza difficoltà. 6 Notiziario tecNico telecom italia - anno18 NumeroUNo2009 La ”microtrincea” Per la “microtrincea” possiamo affermare che le fasi di lavorazione sono pressoché le stesse previste per la “minitrincea”: ■ individuazione dei servizi tecnologici esistenti attraverso l’impiego di sistemi radar e la verifica incrociata con i dati in 97 micro e mini trincea: tecnologie di scavo nel rispetto ambientale - Paolo trombetti ■ ■ ■ ■ ■ possesso dei gestori delle strade e dei servizi; esecuzione del taglio a mezzo di un taglia asfalti; pulizia dello scavo; posa di un conduttore di terra sul fondo dello scavo; posa di una canaletta cablata fuori terra, attraverso particolari sistemi di guida e serraggio; riempimento dello scavo prima con sabbia e poi, per gli ultimi 3 cm, con asfalto colato. Questo sistema si differenzia però per la larghezza del taglio, che è pari a circa 2 cm, e per la profondità, che raggiunge al massimo i 25 cm. L’innovazione tecnologica introdotta dalla “microtrincea” è rappresentata da una particolare canaletta in materiale plastico, che, prima della posa nello scavo, viene armata in campo con il numero e potenzialità di cavi previsti in fase di progettazione. Sempre nella zona, servita dalla centrale Roma Prati, si è sperimentata anche questa tecnica innovativa di scavo. Nello specifico si è trattato di una posa mista (figura 9), dove il primo tratto è stato realizzato su marciapiede, e poi è stato ese- guito un attraversamento stradale. La posa è avvenuta a fianco del cordolo del marciapiede e a fianco di un’aiuola. Questo scavo, in caso di necessità, può essere chiuso con un’apposita guaina (figura 10) che consente la chiusura provvisoria della sede di posa e la riapertura al transito del tratto interessato, in attesa di completare l’intero percorso e per la successiva posa dei cavi. Dopo la verifica e pulizia dello scavo, si è poi provveduto a posare sul fondo un conduttore di terra, necessario alla ricerca e individuazione del percorso cavi. Al di sopra del conduttore è stata poi posata una canaletta a 4 cave cablata fuori terra, attraverso particolari sistemi di guida e serraggio (figura 11). Il riempimento dello scavo è stato infine eseguito allettando la canaletta con sabbia e richiudendo la parte superiore con circa 3 cm di tappetino in asfalto fine, posato a caldo e costipato. Nella figura 12 come si presenta il lavoro a distanza di pochi giorni. Sul marciapiedi è stato poi posato un elemento di raccordo e diramazione (figura 13). La buca è stata eseguita attraverso un’apposita fresa che realizza un carotaggio a misura. Il coperchio di chiusura viene posato in linea con la pavimentazione esistente. Il pozzetto viene posato all’interno della buca e fissato alla base con del calcestruzzo, mentre la rimanente parte viene riempita con materiali inerti o stabilizzati. All’interno del pozzetto vengono ancorate, attraverso specifici accessori, le canalette cablate con i cavi in fibra. Sempre al suo interno è prevista, inoltre, l’allocazione di uno speciale kit per l’inserimento di moduli di giunzione ed alloggiamento Figura 9 - la sede dello scavo della “microtrincea” a roma 98 Notiziario tecNico telecom italia - anno18 NumeroUNo2009 micro e mini trincea: tecnologie di scavo nel rispetto ambientale - Paolo trombetti Figura 10 - la guaina di chiusura Figura 11 - Sistemi di serraggio Figura 12 - la “microtrincea” a pochi giorni di distanza dalla fine lavori Figura 13 - l’elemento di raccordo della “microtrincea” Notiziario tecNico telecom italia - anno18 NumeroUNo2009 99 micro e mini trincea: tecnologie di scavo nel rispetto ambientale - Paolo trombetti scorte (circa 40 mt. complessivi) per sviluppi futuri e/o pose da completare successivamente (figura 14). La “microtrincea, quindi, introduce delle sostanziali novità per le ridottissime dimensioni degli scavi che di fatto si concretizzano in un minore impatto ambientale, riduzione dell’area di cantiere e taglio sui costi per lo smaltimento delle terre di risulta, per i riempimenti degli scavi e il rifacimento delle pavimentazioni. Figura 14 - il “kit” di moduli di giunzione 7 Conclusioni L’utilizzo di cantieri “leggeri” nelle sperimentazioni NGN a Roma ha evidenziato come questi possano essere efficacemente adottati in un ampio spettro di casistiche, in quanto consentono di ridurre sia le dimensioni dei macchinari utilizzati, sia il tempo di occupazione delle sedi stradali. Queste tecniche sono particolarmente idonee per le aree congestionate ad elevata urbanizzazione, in quanto permettono di ridurre gli ingombri ed i tempi di apertura dei cantieri, di operare nella massima pulizia, di rilasciare una sede stradale carrabile ed idonea all’utilizzo in tempi brevissimi e di evitare operazioni costose; il tutto riducendo il disagio per i pedoni e per i veicoli in transito. Perché tali tecniche possano trovare larga applicazione, è auspicabile potenziare la sensibilizzazione delle Amministrazioni e degli Uffici Locali competenti al rilascio dei permessi di scavo per adeguare, ove necessario, i disciplinari comunali e provinciali, rendendoli compatibili a queste tecniche di realizzazione a basso costo e di ridotto im- 100 patto sull’urbanistica, sull’ambiente e sui cittadini. E su questo aspetto una valida azione è quella che sta facendo la IATT (Italian Association for Trenchless Technology) associazione per la promozione delle tecnologie non invasive, di cui anche Telecom Italia fa parte. A CRONIMI EPS Environmental Priority Strategies IATT Italian Association for Trenchless Technology ISTT International Society for Trenchless Technology NGN Next Generation Network [email protected] Notiziario tecNico telecom italia - anno18 NumeroUNo2009 micro e mini trincea: tecnologie di scavo nel rispetto ambientale - Paolo trombetti A UTORE Paolo trombetti in Azienda dal 1987 ha svolto molteplici incarichi specializzandosi in ingegnerizzazione dei materiali di reti di TLC,apparati di rete e tecniche di posa con sistemi a basso impatto ambientale. Attualmente nell’ambito della funzione Operational Planning è in Certification System e si occupa di convenzioni con Enti per la definizione dei rights of way. È docente e autore di diversi articoli e metodologie sulle tematiche relative alle tecnologie di posa non invasive, è stato Rapporteur in ambito ITU (International Telecommunication Units) nella commissione di diffusione delle raccomandazioni per l’impiego di queste tecniche. È Presidente dello IATT (Italian Association for Trenchless Technology) per il periodo 2008-2012 ■ Notiziario tecNico telecom italia - anno18 NumeroUNo2009 101 Atomi e Bit: l’internet con le cose INNOVAZIONE D Roberto Saracco a diversi anni si parla di Internet delle cose, Internet of things, concetto che ha trovato ormai una vasta applicazione nel cosiddetto M2M, comunicazione Macchina – Macchina. Questo rappresenta, a fine 2008, un volume di 14,1 milioni di SIM (1,9 milioni in Italia, primi in Europa) dedicate al M2M con una previsione di 52 milioni a fine 2013 (Berg Insight), anno in cui il 62% delle comunicazioni M2M basate su SIM sarà legato al settore automotive. Tutto ciò senza contare i sistemi di telelettura contatori di energia (diversi milioni in Italia, il paese più avanzato in questo settore) 1. Nel 2006 Sergey Brin, uno dei fondatori di Google, parlando agli azionisti dichiarò che il loro motore di ricerca non sarebbe stato completo fino al 2018, anno in cui sarebbe stato possibile porre la domanda “dove ho lasciato le chiavi della macchina” ed ottenere la risposta “dentro al secondo cassetto del mobile in camera da letto”. Bene, questa è l’Internet con le cose, un’idea che diventa sempre più praticabile, grazie alla crescita tecnologica nel settore dell’identificazione di oggetti, alle comunicazioni pervasive a costo percepito zero dal cliente finale e, infine, alla fruibilità del tutto reso possibile dall’onnipresenza di interfacce personali portatili, che 1 Per le ultime notizie su questo settore si può seguire la conferenza M2M forum ad aprile 2009 a Milano (http://www.m2mforum.com/eng/) 102 NOtIZIArIO tEcNIcO tElEcOm ItAlIA - Anno18 NumeroUNO2009 Atomi e Bit: l’Internet con le cose - roberto Saracco possiamo chiamare “telefonini”, che, a loro volta, accedono a strutture di aggregazione delle informazioni e servizi, chiamate mash ups. A questo manca, per ora, un sistema economico sostenibile di per sé. Alcune applicazioni o vengono considerate investimenti pro futuro, oppure si poggiano a modelli economici radicati su altri valori, in grado con i loro margini di sostenere questi nuovi mercati, in cui esiste sì una offerta crescente, ma a cui corrisponde una domanda che non si accompagna ad una disponibilità di spesa. A tutto ciò si rivolge il progetto “Atomi e Bit” del Future Centre di Telecom Italia. In questo articolo vedremo quindi nell’ordine le tecnologie di identificazione e la loro evoluzione nei prossimi anni, le modalità di aggregazione dell’ecosistema che caratterizza l’Internet con le cose, la fruizione tramite mash ups e i modelli di business. Per chiudere e per chiarire il valore per il cliente finale, si presenteranno alcuni scenari di applicazione dell’Internet delle cose. 1 Evoluzione delle tecnologie di Identificazione 1.1 I codici a barre e i QR Le etichette che troviamo sui prodotti dei supermercati sono basate sulla tecnologia dei bar code e in genere definiscono il tipo di prodotto ed alcune sue caratteristiche, ad esempio il peso, in modo tale da consentire l’attribuzione del prezzo alla cassa. Non sono, in generale, degli identificatori che distinguono quel particolare pezzo da tutti gli altri. Il motivo per cui non si identifica quel particolare prodotto, ma quel tipo di prodotto è che ai fini della vendita quella informazione non serve. In genere si preferisce inserire sull’etichetta le informazioni che consentono di calcolare il prezzo di vendita, piuttosto che direttamente il prezzo. Questo consente una maggiore flessibilità, ad esempio per variare il prezzo durante un periodo di saldi. In generale il prezzo viene indicato sullo scaffale NOtIZIArIO tEcNIcO tElEcOm ItAlIA - Anno18 NumeroUNO2009 e aggiornato se viene variato. In alcuni supermercati (in Francia la cosa è ormai molto diffusa) il prezzo riportato sullo scaffale è visualizzato tramite un piccolo schermo collegato via radio al sistema informativo del supermercato per cui diventa semplice cambiarlo. Per la lettura del codice a barre si utilizzano dei raggi laser. Il raggio del laser presenta due vantaggi importanti. È molto sottile, per cui è in grado di leggere particolari molto piccoli. Inoltre ha una frequenza ben precisa, in genere si utilizza il colore rosso, in quanto è quello meno costoso da produrre, e questo permette al rilevatore di trascurare altri raggi luminosi che potrebbero confondere la lettura. Il raggio viene riflesso e intercettato da un lettore che trasforma la presenza o l’assenza di una riflessione in 0 e 1. Un altro sistema per la lettura dei codici a barre è costituito da lettori in tecnologia CCD (Charged Coupled Device). In questo caso il lettore è fatto da un sensore di luce che contiene centinaia di pixel. Spesso il bordo del sensore illumina l’etichetta e la luce riflessa 103 Atomi e Bit: l’Internet con le cose - roberto Saracco viene catturata dai pixel che la trasformano in una copia dell’etichetta, permettendo ad un’applicazione di individuare barre e spazi. Nel passato erano stati prodotti alcuni cellulari in grado di leggere il codice a barre, ma la cosa non ha preso piede per la sostanziale inutilità: occorre infatti che tutto il sistema si evolva perché a livello mass market sia di interesse l’identificazione di un prodotto. Un’ulteriore barriera alla diffusione è stato il fatto che occorreva aggiungere al telefonino un sistema di lettura aumentandone il costo. Oggi questo incremento di costo non è necessario, in quanto si può sfruttare un sistema per la lettura basato su del software che riconosce l’etichetta fotografata dalla macchina fotografica inclusa nel telefonino. In teoria, quindi, qualunque telefonino potrebbe scattare la foto ad un’etichetta e un apposito software effettuarne la conversione. In pratica però messa a fuoco, luminosità e risoluzione pongono dei limiti a questo tipo di rilevazione da parte di un telefonino. Occorre disporre di etichette ottiche basate su sistemi diversi rispetto al codice a barre, ad esempio le QR (Quick Response) (figura 1). Queste etichette bidimensionali possono contenere molte più informazioni di un co- dice a barre. Addirittura è possibile memorizzare una canzone o un’immagine. Ciò permette di associare informazioni all’oggetto etichettato senza ricorrere al collegamento ad Internet. In genere le etichette sono scritte con inchiostro nero, ma in alcuni casi si possono usare più colori. Questi possono essere utilizzati per aumentare il numero di informazioni scritte, oppure per fornire direttamente informazioni all’occhio che guarda l’etichetta, lasciando all’inchiostro nero il compito di codificare le informazioni che saranno lette dall’applicazione che analizza la foto dell’etichetta. È ovvio, comunque, che il salto in termini di informazioni viene raggiunto nel momento in cui l’etichetta viene utilizzata come puntatore ad un sito sul Web in cui sono memorizzate le informazioni relative a quel prodotto. In questo modo la quantità e varietà di informazioni non ha limite. Altrettanto ovvio che per realizzare questo, occorre disporre di connettività e proprio per questo il telefonino, specie se con un grande schermo, si presenta come il sistema ideale. 1.2 Le etichette RFID Le etichette RFID sono dei sistemi elettronici in grado di ricevere richieste di informazioni ed inviare un segnale con le informazioni possedute. Si compongono di una parte relativamente grande, alcuni centimetri, che serve da antenna ricevente e trasmittente e da un piccolissimo granello di silicio che contiene le informazioni oltre ad un micropro- Figura 1 - codice a barre lineare e Qr code 104 NOtIZIArIO tEcNIcO tElEcOm ItAlIA - Anno18 NumeroUNO2009 Atomi e Bit: l’Internet con le cose - roberto Saracco cessore in grado di riconoscere il segnale e di trasmettere le informazioni. Sulla base del funzionamento si distinguono tre categorie di RFID: quelle attive, quelle semi attive e quelle passive. Le prime e le seconde hanno un sistema di alimentazione che consente loro di svolgere le funzioni richieste, le prime in modo completo le seconde per la sola parte di elaborazione. Queste ultime, così come le RFID passive, utilizzano l’energia generata dal lettore sotto forma di onde radio per tramettere le informazioni e intercettare l’antenna. Nel caso delle RFID passive anche l’energia richiesta per il funzionamento del microprocessore arriva dal lettore. L’antenna ha un ruolo fondamentale per ottimizzare la ricezione e la trasmissione e riuscire a catturare quanta più energia possibile dall’onda elettromagnetica creata dal lettore. Motivi pratici impongono però dei limiti all’antenna: non è pensabile di mettere un’antenna che superi qualche centimetro su di una confezione… Per migliorare l’efficienza dell’antenna spesso questa viene realizzata come una spira tubolare. Questo tipo di “carrozzeria” viene utilizzato, ad esempio, per mettere le RFID nei turaccioli delle bottiglie da vino ed è anche utilizzato per le etichette da impiantare sotto pelle. I vincoli di dimensione dell’antenna e anche dell’intensità di campo elettromagnetico generabile portano a distanze tra lettore ed etichetta, nel caso di etichette passive o semi attive, inferiori ai 6 metri. In alcuni casi le distanze possono essere molto ridotte, il lettore deve trovarsi quasi a contatto con l’etichetta perché questa diventi leggibile. In genere queste modalità di comunicazione vanno sotto il nome di NFC (Near Field Communication). Per alcuni tipi di applicazione questa modalità rappresenta un vantaggio; ad esempio l’etichetta non può essere letta a distanza e quindi ci si accorge se qualcuno vuole leggerla. È il caso di etichette utilizzate nel settore bancario in Giappone per effettuare pagamenti. Il telefonino NOtIZIArIO tEcNIcO tElEcOm ItAlIA - Anno18 NumeroUNO2009 deve essere appoggiato sulla cassa, perché venga riconosciuto. Nel caso delle etichette attive, invece, l’energia richiesta alla trasmissione delle informazioni viene fornita da una batteria o altro sistema di alimentazione e diventa quindi possibile coprire delle distanze fino a 100 metri tra lettore ed etichetta. Il lettore emette un campo elettromagnetico su una frequenza ben definita (esistono diversi standard di frequenza a seconda delle applicazioni) e con questo campo va ad intercettare tutte le etichette che sono situate nella zona in cui è efficace. Ogni etichetta emette l’informazione che possiede e questa è diversa per ogni etichetta. In applicazioni, come nel settore della logistica, un singolo lettore riesce a leggere fino a 800 etichette in contemporanea. È possibile, ad esempio, per un lettore leggere le etichette di tutte le magliette presenti su di uno scaffale o contenute in uno scatolone. Oltre alla distinzione tra attive, semi attive e passive, le etichette si distinguono anche per la possibilità di essere a sola lettura (le informazioni sono state scritte nel momento in cui è stata realizzata l’etichetta), di permettere una sola scrittura e poi infinite letture (WORM, Write Once Read Many – Scrivi Una volta, Leggi Molte volte), o permettere un numero illimitato di scritture e letture. La quantità di informazioni memorizzabili in un’etichetta RFID può andare da pochi byte a qualche kB. In genere si considerano 2000 byte come la quantità di riferimento. Essendo sostanzialmente un chip con un’antenna, tuttavia, non sarebbe un problema creare delle RFID con una capacità di memoria decisamente maggiore. Questo non si sposa con l’idea di “etichetta” per identificare un oggetto. Le svariate informazioni che potrebbero essere collegate all’oggetto, infatti, possono essere memorizzate in un qualunque punto della rete ed essere indirizzate e recuperate sulla base della identità fornita dall’etichetta e quindi, anche per queste, il telefonino si presenta come il candidato 105 Atomi e Bit: l’Internet con le cose - roberto Saracco ideale per la loro lettura. In Giappone sono ormai oltre 13 milioni i telefonini in grado di leggere etichette RFID. Il problema della sostituzione degli attuali telefonini con nuovi modelli in grado di leggere le RFID potrebbe essere superato con SIM evolute che incorporano il sistema ZiGBee. 1.3 Printed electronics Il parametro costo è l’elemento dominante quando si parla di etichette da applicare all’identificazione di un prodotto. Secondo l’organizzazione che cura lo sviluppo e standardizzazione delle RFID un costo superiore ai 5 centesimi di dollaro ne impedisce l’adozione nella grande distribuzione. E questo costo deve comprendere etichetta e procedura di etichettatura. Per una vera e propria diffusione capillare, che porti alla sostituzione degli onnipresenti codici a barre, occorre scendere sotto il centesimo. Oggi siamo a qualche decina di centesimi, 50 Figura 2 - la differenza tra l’elettronica stampata e quella convenzionale 106 volte oltre quello che è considerato il punto di adozione generalizzato. Per questo arriva una nuova tecnologia: la printed electronics, cioè l’elettronica stampata (figura 2). I chip che conosciamo sono realizzati con un processo di incisione (etching). Questo procedimento è estremamente costoso per gli impianti che occorre realizzare. La miniaturizzazione raggiunta, 40 nanometri a fine 2008, comporta costi oltre 2 miliardi di dollari per un singolo impianto di produzione. Solo grazie agli enormi volumi si riesce ad avere costi contenuti che oggi, sono intorno ai 2-5 $ al millimetro quadro di chip. Il chip presente in un’etichetta elettronica è molto più piccolo di un millimetro quadro, ma i costi sono comunque nell’ordine di qualche decina di cent a cui occorre aggiungere quelli del packaging, cioè dell’assemblaggio del chip con l’antenna e la sua collocazione sull’oggetto da etichettare. La printed electronics viene realizzata con un processo completamente diverso, un processo di stampa: da qui il nome “printed”. Viene utilizzato un insieme di inchiostri che sono spruzzati da stampanti tipo ink-jet, come quelle spesso usate nelle nostre case per stampare le foto. Queste stampanti sono tuttavia notevolmente più raffinate con una risoluzione anche inferiore a 20 m. Ogni cartuccia ha un iniettore comandato da un computer che spruzza una goccia da un NOtIZIArIO tEcNIcO tElEcOm ItAlIA - Anno18 NumeroUNO2009 Atomi e Bit: l’Internet con le cose - roberto Saracco miliardesimo di litro di soluzione in cui si possono trovare vari composti tra cui silicio, carbonio, conduttori metallici, nanoparticelle che creano il circuito. A differenza dell’elettronica classica in cui il chip deve essere poi montato e collegato all’antenna, nel caso della printed electronics l’antenna viene stampata insieme al resto, abbattendo quindi i costi. Nel tempo si arriverà a stampare, perlomeno nel caso di circuiti semplici come tutto sommato sono quelli usati dalle etichette elettroniche, direttamente sulla confezione o sull’oggetto, diminuendo ulteriormente i costi. I sistemi che si stanno progettando per la stampa industriale di etichette elettroniche tramite il processo di printed electronics (processo flexografico) dovrebbero avere una capacità produttiva di oltre 10.000 m2/h, il che significa una produzione di oltre 20 milioni di etichette all’ora! L’adattamento del processo di stampa tramite inkjet (100 m2/h con risoluzione di 50 m), invece, porta a livelli di produzione molto inferiori, circa 8.000 pezzi all’ora, comunque sufficienti per svariate applicazioni, ad esempio etichettature in un supermercato. Complessivamente un’etichetta realizzata in questo modo dovrebbe avere un costo inferiore, di molto, al centesimo di dollaro. Questo porta a dire che nella prossima decade ogni oggetto prodotto avrà la sua etichetta elettronica, allo stesso modo in cui oggi ogni oggetto ha un codice a barre. 1.4 Le etichette ottiche (olografiche) Un’altra tecnologia per identificare un oggetto è quella delle etichette ottiche. Queste sfruttano il principio dell’olografia per cui sono spesso chiamate etichette olografiche. Sono in genere realizzate su polimeri in grado di riflettere/rifrangere un raggio di luce incidente. Anche se alcune sembrano piatte, NOtIZIArIO tEcNIcO tElEcOm ItAlIA - Anno18 NumeroUNO2009 come dei codici a barre, queste etichette sono in realtà strutture tridimensionali. Altre etichette sono a forma di cubetto, pochi millimetri di lato. Il principio di funzionamento è lo stesso. Due raggi laser vengono trasmessi dal lettore verso l’etichetta. La struttura atomica di questa crea una rifrazione che viene analizzata dal lettore e tradotta in una stringa di bit. Esistono varie tipologie di etichette olografiche, da quelle che presentano un’immagine a quelle che ad occhio nudo sembrano essere un insieme di colori cangianti, ma che ad un lettore appaiono come stringhe di bit. Le prime sono utilizzate per permettere di verificare l’autenticità del prodotto, basandosi sul fatto che è costoso realizzare un ologramma e sull’impossibilità di trasferire un ologramma da un oggetto ad un altro (ad esempio una carta di credito). Un tipo di etichetta olografica è realizzata con due sottili fogli di mylar (poliestere); sul primo apparirà l’immagine olografica, mentre il secondo è ripiegato e incollato a caldo. Più coppie sono assemblate per creare ologrammi complessi e tagliati poi con le dimensioni volute. L’immagine, o le stringhe di bit, sono create nel processo di realizzazione e qualunque manomissione all’etichetta distrugge l’informazione. Altri tipi di etichette sono realizzate con polimeri che formano una struttura tridimensionale. A differenza di quelle realizzate in mylar queste etichette possono essere scritte da appositi apparati. Nel caso in cui l’etichetta sia utilizzata per contenere stringhe di bit, queste diventano leggibili a ben precise frequenze della luce utilizzata dal lettore. È possibile quindi realizzare etichette che contengono stringhe distinte, ciascuna visibile a certe frequenze per cui si possono realizzare lettori che, operando a frequenze diverse, leggeranno informazioni diverse accedendo alla stessa etichetta. La frequenza utilizzata per la lettura (la lunghezza d’onda della luce utilizzata) può variare tra i 380 THz e i 750 THz. Siamo quindi a frequenze di 100.000- 107 Atomi e Bit: l’Internet con le cose - roberto Saracco 1.000.000 di volte maggiori rispetto a quelle delle RFID e siccome la quantità di informazioni, che è possibile codificare, è legata alla frequenza (lunghezza d’onda), un’etichetta olografica può contenere enormi quantità di informazioni, dell’ordine dei GB. Lo svantaggio di queste etichette, rispetto a quelle RFID, è il fatto che devono essere visibili al lettore, non è quindi possibile leggere etichette su magliette chiuse in uno scatolone come accade con le etichette RFID. Inoltre ogni etichetta viene letta singolarmente, non si possono leggere insieme più etichette. Le applicazioni massa market sono quindi escluse. 1.5 Riconoscimento immagine Non tutti gli oggetti, però, si prestano ad avere un’etichetta. Pensiamo ad un palazzo, ad un giardino… Qualcuno dirà anche: pensiamo a noi… che viviamo benissimo senza essere etichettati! Un meccanismo interessante, anche perché è quello principalmente utilizzato da noi stessi nella vita di ogni giorno, è il riconoscimento di immagine. Uno dei primi passi per il riconoscimento dell’immagine è quello di definire il contesto. Un’applicazione di riconoscimento opera in un contesto sia di regole, sia di elementi predefiniti. Le regole servono a capire la relazione possibile tra oggetti, gli elementi predefiniti servono a delimitare il numero di scelte possibili. Questi elementi predefiniti sono in genere classi (ad esempio frutta, mobili, facce…) e ciascuna classe ha delle proprietà associate, che, in qualche modo, ne descrivono le possibili varianti (una faccia può essere parzialmente coperta da capelli, da barba, può essere presentata di profilo, può avere un colore più o meno scuro ma in genere ha due aperture in alto – occhi – una centrale in basso – bocca – e così via). 108 I progressi nel settore del riconoscimento di immagini sono stati notevolissimi e ci si sta avviando verso una rivoluzione nell’approccio: anziché seguire un approccio deduttivo, basato sulle proprietà degli oggetti possibili, si va verso un’analisi statistica, paragonando una data immagine con milioni di altre immagini,cercando quella che più somiglia e di cui esiste una descrizione dei componenti. Ricercatori del MIT hanno recentemente scoperto che bastano poche informazioni per arrivare a classificare il soggetto di un’immagine, secondo un processo di riconoscimento che sembra quello utilizzato dagli animali. Sfruttando altre informazioni, ad esempio la localizzazione, è possibile passare dalla classificazione all’identificazione: quello è un monumento, sono in piazza San Carlo a Torino, allora quella è la statua del “Caval ‘d bruns”. Con il meccanismo sviluppato, i ricercatori sono riusciti a memorizzare in 600 MB quasi 13 milioni di fotografie, ciascuna con la descrizione del contenuto. Chiaramente se l’immagine è fuori dall’usuale, sarà difficile trovarne una simile e quindi riconoscere il contenuto, ma per la stragrande maggioranza dei casi il sistema funziona. Una tecnologia utilizzata per il riconoscimento di oggetti all’interno di un’immagine è quella della Pattern Recognition (Riconoscimento di Sequenze). A differenza del Pattern Matching, in cui si vanno a paragonare in modo molto rigido le informazioni estratte dall’immagine in esame con una campione (ad esempio per riconoscere delle impronte digitali), nel Pattern Recognition, una delle discipline che studiano l’apprendimento da parte delle macchine, si parte da una classificazione effettuata su una conoscenza a priori di pattern precedentemente riconosciuti. Le sequenze estratte sono in genere dei gruppi di misure e osservazioni. Il Pattern Recognition si basa quindi su una parte di ri- NOtIZIArIO tEcNIcO tElEcOm ItAlIA - Anno18 NumeroUNO2009 Atomi e Bit: l’Internet con le cose - roberto Saracco levazione (un sensore come quello di una macchina fotografica digitale o di una telecamera) e un sistema per l’estrazione di caratteristiche dall’immagine catturata con una loro trasformazione e attribuzione a categorie predefinite. Questo è il passaggio più critico e complicato e viene effettuato utilizzando vari meccanismi, inclusi quelli probabilistici. Per questi, da qualche tempo, si utilizzano le reti neurali, computer che simulano il comportamento di neuroni. 2 Chi ha interesse a fornire servizi e informazioni sugli oggetti? Posto che sia possibile identificare una grande varietà di oggetti e tramite un meccanismo di collegamento, come il telefonino, arrivare ad informazioni e servizi associati, esiste un insieme di attori interessati a creare un’offerta? La risposta è positiva. Possiamo classificare gli attori che creano l’offerta in diverse classi, ciascuna con le sue tipicità e con i suoi interessi, a cui corrispondono modelli di business potenzialmente molto diversi. Sono proprio questa diversità e le connessioni deboli, che esistono tra questi soggetti, mediate dagli oggetti e da altri attori, che evidenzierò nel seguito, che portano ad utilizzare una visione del business legata all’ecosistema, piuttosto che alle catene del valore in cui si collocano i singoli. Vediamo allora brevemente queste classi di attori. 1.6 Riconoscimento testi Un campo specifico del riconoscimento di immagine è quello del riconoscimento di un testo, in genere noto come OCR (Optical Character Recognition). Se il testo è dattiloscritto e quindi i caratteri hanno una forma ben precisa, il riconoscimento è semplice, ma non così semplice come si potrebbe pensare: potrebbe esserci una macchia sul foglio che deforma i contorni di un carattere, una stampa difettosa in qualche punto… I programmi che effettuano il riconoscimento hanno in genere la capacità di ovviare a questi problemi e ricostruiscono il testo. Molto più complicato, invece, è il riconoscimento di un testo scritto a mano. Sebbene i primi studi e brevetti sul riconoscimento di un testo scritto da parte di una macchina risalgano addirittura agli anni ’30, oggi il riconoscimento in OCR dei caratteri latini (non quelli cinesi, ad esempio) è un dato acquisito. L’accuratezza supera il 99%. Così non è invece per quanto riguarda il riconoscimento di testo scritto a mano per cui la ricerca continua. Il riconoscimento di testo è interessante nel settore dell’identificazione di notizie fornite dalla carta stampata, come si vedrà più avanti in uno degli scenari applicativi. 2.1 NOtIZIArIO tEcNIcO tElEcOm ItAlIA - Anno18 NumeroUNO2009 Le Istituzioni Le Istituzioni sono proprietarie di informazioni che appartengono ai cittadini stessi e quindi sono, per statuto, orientate a fornire ai cittadini queste informazioni. Possono essere informazioni sull’uso di certi beni pubblici, piuttosto che avvertimenti di cautela in certe situazioni. Sono inoltre interessate a sviluppare il contesto produttivo della regione di loro pertinenza, favorendo le imprese nella creazione e offerta di beni e servizi. In alcuni casi le Istituzioni si dotano di loro canali di comunicazioni ed anche, più di recente, di infrastrutture di comunicazione. Alcune municipalità, Roma e Venezia per citarne due, hanno iniziato a rendere disponibili hot spot WiFi, a cui i cittadini possono collegarsi. 109 Atomi e Bit: l’Internet con le cose - roberto Saracco 2.2 Gli Operatori Turistici Questa classe è interessante, in quanto rappresenta attori che sviluppano un business a partire da beni che non possiedono. Pensiamo alle guide che raccontano la storia di Roma e fanno vedere il Colosseo. Nè l’una nè l’altro sono beni di loro proprietà, ma li sfruttano per erogare un servizio. La possibilità di erogare queste tipologie di servizi in modo diffuso è però di loro interesse. Questo permette di cambiare anche la modalità di erogazione. Una Disney che non avrebbe un ritorno tale da giustificare un’organizzazione a Roma per erogare dei tour basati su suoi contenuti, potrebbe essere in grado, tramite l’associazione identità, terminale, comunicazione e profilo del fruitore, di erogare servizi mirati, magari video clip con Paperino che racconta ai ragazzini la storia medievale di Roma, piuttosto che la Mondadori che entra nel settore turismo, sfruttando le raccolte di Asterix per animare una visita al Colosseo. gli studi del Future Centre hanno potuto verificare con alcune industrie della catena del bianco e dell’abbigliamento. 2.4 Fornitori di Informazioni I fornitori di informazioni vedono nelle possibilità di associazione ad ogni oggetto un moltiplicarsi di opportunità. Mentre oggi sono vincolati a canali classici (carta stampata, radio, televisione, cinema), di colpo si troverebbero a poter utilizzare concettualmente qualunque oggetto come veicolo, tramite cui far arrivare l’informazione al cliente. Essendo questa collegata da un lato all’oggetto e dall’altra all’interazione tra il cliente e l’oggetto, viene ad assumere un’efficacia molto maggiore: è il right on spot, right on time. 2.5 2.3 Produttori di beni Da tempo i produttori di beni associano informazioni al prodotto venduto, i famosi libretti di istruzione, che non vengono praticamente mai letti se non nel momento in cui tornerebbero utili ma non si sa più dove siano finiti! L’associazione possibile tramite lettura dell’identità e accesso ad informazioni e servizi su Internet rende possibile un’erogazione efficace delle informazioni nel momento in cui queste sono effettivamente utili. Non solo. Diventa possibile offrire nel tempo una varietà di servizi collegati all’oggetto, mantenendo aperto un canale di comunicazione verso il cliente, aspetto questo di grande importanza in diversi settori commerciali, come 110 Singoli Individui Il web ha dimostrato come esista un’enorme disponibilità ed interesse da parte dei singoli a creare e fornire informazioni. Queste spesso risultano estremamente interessanti ed accurate. Sono i meccanismi stessi del web, la magliatura continua e dinamica e la struttura a piccoli mondi che portano ad informazioni accurate. Wikipedia ne è un ottimo esempio. Un’enciclopedia del sapere umano in continua evoluzione, prodotta da centinaia di migliaia di individui, che hanno come unica motivazione quella di condividere le loro conoscenze. La proliferazione di applicazioni su Apple Store 2, di cui molte fornite gratuitamente per 2 Oltre 15.000 a fine 2008 e generate in meno di un anno. NOtIZIArIO tEcNIcO tElEcOm ItAlIA - Anno18 NumeroUNO2009 Atomi e Bit: l’Internet con le cose - roberto Saracco il solo piacere di sapere che altri possono fruire del nostro impegno, ne è un ulteriore esempio. 3 2.6 Comunità Le svariate migliaia di comunità presenti sul web sono ulteriori esempi di creazione di informazioni per raggiungere i fruitori nel modo più efficace possibile. Anche se motivate dalle stesse spinte di condivisione citate a proposito dei contributi degli individui, le comunità sono in genere maggiormente strutturate, focalizzate e quindi possono essere viste come una classe diversa rispetto ai singoli. È chiaro come questo enorme complesso, qui appena accennato, di fornitori di servizi ed informazioni debba in qualche modo essere regolato. In alcuni casi queste regole avvengono tramite contratti espliciti (si veda il caso di iTunes e Apple Store), in altri secondo i principi dei Creative Commons. In altri ancora non esistono enti regolatori che assicurano il buon funzionamento del complesso di relazioni, garantendo i fruitori e, al tempo stesso, creando un mercato basato sulla fiducia che permette la valorizzazione dell’offerta. In questo settore è importante avere un approccio di ecosistema. Occorre quindi considerare come questo sistema possa essere tenuto insieme e possa anche esistere, sulla base di elementi che sono lascamente collegati tra di loro e in cui la creazione di valore dipende da una copresenza, da un’offerta molto grande recepibile da una domanda molto dispersa (long tale), che diventa interessante solo se riesce a generare volumi. Diventa quindi importante considerare quello che può essere il collante, la connettività tra i vari partecipanti all’ecosistema. Secondo le ipotesi sviluppate al Future Centre questo può essere trovato nel Mash ups. NOtIZIArIO tEcNIcO tElEcOm ItAlIA - Anno18 NumeroUNO2009 Mash ups e Piattaforme Dai primi anni di questo secolo alcuni siti web hanno iniziato a presentare ai naviganti un insieme di informazioni che sono derivate da una molteplicità di banche dati, di cui solo alcune di proprietà e sotto il controllo del proprietario del sito web. Le altre banche dati vengono rese disponibili o tramite particolari canali di accesso, API (Application Programming Interface), o semplicemente accedute come normali pagine web, da cui poi un programma estrae le informazioni di interesse andandole ad incollare, opportunamente riformattate, sulla pagina che viene presentata. Un esempio potrebbe essere un sito di informazioni turistiche, che presenta sulla stessa pagina un riquadro con le previsioni del tempo e una finestra in cui appare un’immagine del posto, ripresa in tempo reale da una webcam. Né questa né le previsioni del tempo sono informazioni possedute dal proprietario del sito turistico, che le ricava da pagine disponibili sul web. Questo è possibile in quanto, dal punto di vista della proprietà intellettuale, ciò che viene pubblicato sul web diventa pubblico ed è quindi riutilizzabile in altri contesti (a patto che se ne citi la fonte). Il proprietario del sito non ha dovuto chiedere alcun permesso a chi ha reso disponibili le previsioni del tempo nè a chi trasmette le immagini della webcam. Dal punto di vista di chi, navigando, è arrivato a quella particolare pagina di informazioni turistiche la presenza dell’insieme di informazioni costituisce un valore, in quanto, a colpo d’occhio, cattura tutto quanto gli serve. Il sito è un Mash Ups, una presentazione di informazioni, provenienti da diverse fonti, integrate dal punto di vista della presentazione (figura 3). In molti casi i Mash Ups vengono costruiti a partire da un’informazione che fa 111 Atomi e Bit: l’Internet con le cose - roberto Saracco Figura 3 - Un possibile scenario in ottica mash Ups da sfondo, fornita da un terzo. Questo può essere, o meno, consapevole dell’utilizzo. In generale, se l’accesso a queste informazioni viene effettuato come un normale accesso ad una pagina web, il fornitore non è a conoscenza dell’uso, mentre se l’accesso è effettuato tramite API, che questi mette a disposizione, diventa possibile misurare gli accessi di quel tipo ed eventualmente creare una relazione contrattuale generalizzata. Per chi crea il Mash Ups, la disponibilità di API è un vantaggio, in quanto queste permettono di prendere esattamente l’informazione voluta, mentre nel caso di un normale accesso web, occorre realizzare dei programmi che estraggano l’informazione voluta dalla pagina, con il problema di dover cambiare i programmi nel momento in cui cambia il modo di presentare quella informazione. Quando si utilizza un’informazione come sfondo su cui andare a sovrapporre altre informazioni, si dice che quello sfondo è un seed, cioè un seme da cui possono crescere svariate presentazioni. Un esempio classico è costituito dalle 112 mappe geografiche, in moltissimi casi messe a disposizione da Google. L’importanza del seed è la sua capacità di aggregare un ecosistema. I Mash Ups 3 non sono soltanto aggregazioni di informazioni: possono essere anche aggregazioni di servizi o un misto tra servizi e informazioni. A sua volta la parola servizi deve essere intesa in modo molto ampio, potendo comprendere risorse di vario tipo comprese linee di comunicazione. In prospettiva molti oggetti potrebbero rientrare in un contesto di Mash Ups, nel senso di poter essere un “seed” su cui si aggregano informazioni e servizi o componenti di un Mash Ups. I terminali, come il cellulare, il televisore, i sensori presenti nella casa… sono tutti esempi di oggetti che possono far parte di un Mash Ups, come vedremo nel seguito. 3 Per vedere alcuni esempi e seguire l’evoluzione dei Mash ups consultate www.programmableweb.com/mashups. Un altro sito interessante è www.mashuptown.com con esempi di mash ups applicati alla musica, in cui musiche e testi sono sovrapposti ad una musica che funge da seed. NOtIZIArIO tEcNIcO tElEcOm ItAlIA - Anno18 NumeroUNO2009 Atomi e Bit: l’Internet con le cose - roberto Saracco Il futuro attenua i confini tra oggetti, informazioni, servizi, risorse, collocandoli in un continuo, in cui, di volta in volta, una certa entità ci appare come oggetto, piuttosto che informazione, servizio, risorsa. Saranno i nostri occhi e il nostro cervello a percepire quell’entità in un modo piuttosto che in un altro. Allo stesso tempo perderà sempre più significato il concetto di pagina web: quello che vedremo non sarà una pagina web, ma il risultato di un processo di Mash Ups in parte svolto dalla rete, in parte dal terminale, in parte dal contesto in cui siamo; le informazioni e servizi che percepiremo non saranno più in un certo posto, ma sparsi come “ectoplasmi” nella rete/ambiente/terminale con noi al centro. Questo è un concetto nuovo, che va oltre la rete di servizi forniti da una pluralità di attori e che ci porta in una dimensione di continuum spazio temporale. Un passo in questa direzione è costituito dalle “piattaforme”. Le “piattaforme” nascono dal mondo della tecnologia e denotare dei sistemi che forniscono funzionalità di base utilizzabili da altri sistemi indipendenti da questi. Un esempio di piattaforma è un sistema operativo, quale OSX, Linux, WindowsVista. Se i sistemi operativi hanno rappresentato il primo esempio di piattaforma nel contesto ICT, a questi si sono aggiunte altre piattaforme in genere orientate ad ospitare e gestire applicazioni in aree specifiche, ad esempio piattaforme per la sanità, per il trasporto, per il turismo. Queste piattaforme sono in pratica dei sistemi operativi, arricchiti da funzionalità specifiche, di interesse per un certo contesto, che permettono, a chi sviluppa servizi e applicazioni, di sfruttare elementi base offerti dalla piattaforma, semplificando e velocizzando la realizzazione in quel comparto. Più di recente si sono sviluppate architetture aperte, cioè sistemi che possono essere utilizzati da svariati attori, anche in assenza di accordi specifici con il fornitore NOtIZIArIO tEcNIcO tElEcOm ItAlIA - Anno18 NumeroUNO2009 della piattaforma e che crescono nel tempo in termini di funzionalità, in quanto ogni applicazione che viene aggiunta diventa parte della piattaforma stessa e può quindi essere utilizzata da altri per lo sviluppo di ulteriori applicazioni e servizi in un circolo virtuoso, che aumenta sempre più il valore della piattaforma e la sua capacità di aggregare servizi e applicazioni. La piattaforma diventa un “control point”, elemento questo molto importante nello sviluppo dei modelli di business. Queste architetture aperte richiedono che non solo la piattaforma, ma anche le applicazioni siano sviluppate in modo da poter essere utilizzate come componenti di servizio: si parla in questo caso di “service exposure”, cioè dell’esposizione di funzionalità che potranno essere sfruttate per erogare altri servizi. In pratica la piattaforma si trasforma per diventare un complesso ecosistema, cui partecipano svariati attori e i cui componenti operativi sono le diverse applicazioni via via create e rese disponibili. Si noti che, mentre nel passato si riteneva che le API e le componenti di servizio costituissero i “control point” del business, oggi sta emergendo la comprensione che il “control point” del business si trova nella capacità di aggregare da un lato (seed) e in quella di offrire una value proposition che fa transitare i diversi attori dalla piattaforma. Con piattaforma si intende anche un’infrastruttura standardizzata, su cui si possono poggiare svariati sistemi e processi industriali e commerciali, ad esempio il complesso meccanismo di interscambio merci basato sui container che coinvolge navi, treni, camion, ma anche gru, robots, sistemi di gestione delle merci, sistemi per l’inventario e gestione magazzini. Un altro esempio ancora è l’iPod, su cui si sono andati ad aggregare una molteplictà di oggetti, dalle canzoni via iTunes, alle foderine, dagli altoparlanti, alle migliaia di applicazioni che vengono sviluppate. 113 Atomi e Bit: l’Internet con le cose - roberto Saracco 4 zione, servizi di adattamento all’ambiente di fruizione e anche alla costruzione di ambienti di fruizione. Inoltre, attori che sono presenti in quell’ecosistema, in termini di catene del valore, possono dover riconsiderare il modo in cui svolgono il loro business e variarlo per sfruttare la nuova situazione. La presenza di una connessione diretta tra prodotto e produttore attivabile dal cliente può permettere di impostare in modo completamente diverso il CRM, addirittura può permettere di trasfromare il CRM da costo a profitto e in questo modo creare un insieme di attori precedentemente inesistenti che creano un’offerta di CRM (come ad esempio è accaduto in USA con 1-800-Geek per il supporto di consumer electronics e PC). L’apertura delle piattaforme, la varietà dei servizi e dei fornitori potrebbe portare alla creazione di nuove aziende per l’offerta dei servizi di gestione di telecomunicazioni. I modelli di business Abbiamo visto come Mash Ups e piattaforme abbiano la caratteristica di rendere possibile l’aggregazione di servizi, risorse e informazioni, in modo tale che dal punto di vista del fruitore si percepisca un insieme omogeneo e ad alto valore. Il problema è che questo valore è la risultante dell’integrazione di valori singoli, prodotti da diversi attori: si hanno quindi valori individuali, a cui occorre aggiungere il valore fornito dall’integrazione. Ciascuna delle componenti è il risultato di un processo di creazione, che ha generato costi e che spesso presuppone dei ricavi. Questa situazione è tipica degli ecosistemi, anche se qui la decliniamo per quello che riguarda il contesto atomi e bit. L’offerta proviene da una varietà di attori e può presentarsi in forma aggregata, cioè su un determinato oggetto possiamo trovare offerte di servizi e contenuti generati da più parti. La “remunerazione” di questi può passare attraverso un contratto, che si viene a stabilire a priori, o di volta in volta, tra chi offre e chi consuma, oppure in un contesto creative commons, dove le regole di fruizione e remunerazione sono dei gentlemen agreement. La relazione tra costruzione ed erogazione dell’offerta, sua fruizione e remunerazione viene facilitata dall’esistenza di una piattaforma che colleghi i diversi attori al mercato anche, soprattutto, in termini di tracciamento delle transazioni e nell’attribuzione di remunerazioni conseguenti. Nel momento in cui inizia ad aggregarsi un ecosistema altri attori possono entrare per sfruttare quanto viene messo a disposizione. Questo crea una spirale positiva, che tende ad arricchire ulteriormente il valore complessivo dell’ecosistema. Esempi di questo sono la costruzione di servizi a partire dai metadati derivabili nell’ecosistema (i metadati sono dati relativi ai dati), servizi di personalizza- 114 5 Scenari Vediamo ora alcuni scenari di applicazione dell’Internet con le cose. 5.1 Shopping al supermercato Quel barattolo di frutti esotici sembra interessante. Non è che abbia qualche sostanza cui posso essere allergico? Con il telefonino identifico il barattolo (RFID in futuro o semplice riconoscimento dell’etichetta sul barattolo tramite fotografia scattata dal cellulare e analizzata da un centro servizi). Il tasto sul telefonino, “va bene per me?” attiva la lettura dell’etichetta e la invia automaticamente ad un centro servizi insieme alla mia identità NOtIZIArIO tEcNIcO tElEcOm ItAlIA - Anno18 NumeroUNO2009 Atomi e Bit: l’Internet con le cose - roberto Saracco (quella del telefonino) opportunamente criptata. Il centro servizi riconosce che l’etichetta corrisponde ad un certo produttore ed invia a questo la richiesta di informazioni. Queste possono essere molto varie e possono essere complementate da ulteriori informazioni provenienti da altri attori. Ad esempio il centro servizi riconosce “l’esoticità ” del contenuto e inserisce tra le informazioni anche quelle fornite da un’agenzia viaggi, che offre un videoclip di quella parte del mondo da cui proviene il prodotto con un’offerta speciale se mai volessi andare ad assaggiare il frutto durante una bella vacanza, oppure presenta una ricetta con cui far risaltare quel frutto sulla tavola, piuttosto che proporre l’acquisto di un altro ingrediente che ben si accompagnerebbe con quello. L’insieme di informazioni, quelle provenienti dal produttore più tutte le altre che possono approfittare della domanda che ho fatto, sono strutturate in un archivio che diventa accessibile da un menù che mi viene presentato sul telefonino. Tra le varie opzioni, naturalmente, anche quella che permette di memorizzare le informazioni per una consultazione differita, magari da casa e tramite il televisore. A queste informazioni diventa possibile accedere ancora tramite il telefonino, una volta che sono a casa, usato come telecomando verso il televisore. Ma torniamo alla domanda iniziale “va bene per me?”. Questa domanda non può trovare risposta sulla sola base di ciò che è contenuto nel barattolo. Occorre incrociare queste informazioni con il mio profilo. Questo è disponibile a me, e anche ad un trusted party che lo utilizza per personalizzare i servizi e le informazioni che richiedo. Potrei addirittura vedermi rispondere: “guarda che hai già comprato questo frutto l’anno scorso…”. L’identità del telefonino si rivela fondamentale in questo processo, in quanto questa può essere mantenuta criptata a tutti i service e information provider, ma è visibile all’Operatore che potrà, o direttamente se ho scelto questo come trusted party, o indi- NOtIZIArIO tEcNIcO tElEcOm ItAlIA - Anno18 NumeroUNO2009 rettamente trascodificando l’identità e inviandola a quello che ho comunicato come trusted party, arrivare al mio profilo ed estrarre le informazioni necessarie a stabilire se alcune delle sostanze contenute possano o meno essere dannose per me. In effetti, il trusted party non è probabilmente in grado di sapere queste cose, per cui invierà a sua volta la domanda con quella parte di profilo, che è rilevante e le informazioni ottenute, ad un altro centro servizi, probabilmente realizzato tramite un sistema esperto, che sarà in grado di rispondere. In questo processo è fondamentale la schermatura delle informazioni, tale da impedire un’associazione tra la mia identità e la richiesta informazioni. Questo processo è lungo da descrivere, ma in realtà la mia pressione sul tasto che ha innescato la domanda porta ad una risposta nel giro di qualche centinaio di millisecondi, talmente rapida da non farmi percepire alcun ritardo. Il concetto del profilo è molto importante: da questo dipende la possibilità di personalizzazione e di navigazione nel mare sempre più esteso di informazioni e servizi. Dalla sua gestione dipende la garanzia di privacy e di possesso dei dati che mi aspetto. Notiamo anche un altro elemento fondamentale: la possibile provenienza diversificata di informazioni e servizi; quello che abbiamo visto viene reso possibile in termini di fruizione dalle tecnologie del Mash Ups. La nostra domanda, effettuata al supermercato, in corrispondenza dello scaffale su cui si trova il barattolo, potrebbe attivare una presentazione di contenuti su schermi strategicamente collocati sullo scaffale e addirittura sulle etichette intelligenti poste in corrispondenza del prodotto per indicarne caratteristiche e prezzo. Il supermercato potrebbe “vendere” l’accesso a queste etichette (controllandone l’utilizzo) a terze parti, consentendo quindi di inviare informazioni al cliente, tramite le infrastrutture del supermercato stesso. 115 Atomi e Bit: l’Internet con le cose - roberto Saracco La presenza di una rete WiFi all’interno del supermercato potrebbe superare anche i problemi di eventuale costo nell’utilizzo di un’infrastruttura pubblica tramite telefonino. 5.2 All’edicola I giornali si sono evoluti ben poco nei loro 300 anni di esistenza. Il decrescente costo di produzione e la progressiva facilità nella raccolta di informazioni hanno moltiplicato le testate e fatto crescere il numero di pagine; negli ultimi 100 anni, e soprattutto negli ultimi 50, la pubblicità è diventata il motore economico della carta stampata e al tempo stesso diventa vincolo e penalizzazione. Mentre la tecnologia del supporto è rimasta praticamente immutata, se non per l’avvento del colore in anni recenti, la tecnologia di produzione si è evoluta enormemente con il passaggio al digitale di tutta la catena di raccolta, selezione, scrittura, impaginazione, distribuzione e stampa. In questi ultimissimi anni, tuttavia, alcuni segnali di cambiamento stanno emergendo e potrebbero portare ad una radicale innovazione nel modo di fruire “la notizia”: podcast, twitter, blog sono tre innovazioni che iniziano a cambiare questo mondo; lo cambiano alla radice, portando a modelli di comunicazione bottom up (i lettori di una volta diventano potenzialmente giornalisti) e cambiano la fruizione da modelli passivi (leggere il giornale) a interattivi, trasformando quella che era la sottolineatura di un passo del testo, in un commento che diventa potenzialemente visibile a tutti. Dove una volta era la sola carta stampata, oggi il web porta la notizia dalla carta al video, i nuovi terminali la portano nelle mani delle persone. L’iPhone e l’iTouch sono esempi particolarmente importanti per la qualità che offrono, non pari alla carta stampata, tuttavia abilitanti un’interattività che non 116 esiste sulla carta stampata. Gli eBook reader alla Kindle offrondo una qualità paragonabile alla carta stampata, ma una minor maneggevolezza rispetto alla carta stampata. In un modo o nell’altro, quindi, il supporto cartaceo continua a presentare vantaggi dal punto di vista dell’usabilità. La tecnologia può permettere di mantenere da un lato la carta stampata e allo stesso tempo aggiungere a questa quelle caratteristiche di interattività, multimedialità e pluralità di informazioni cui il web ci ha abituati. Immaginiamo di prendere un giornale, inquadriamone la prima pagina e scattiamone una foto con il cellulare. Questa foto è sufficiente per permettere il riconoscimento della testata (è il Corriere della Sera) e la data (il 2 novembre 2008). Questo riconoscimento è importante in quanto permette di contestualizzare le successive foto che saranno relative a quei punti di interesse da cui si vuole partire per ottenere ulteriori informazioni. La cattura, anche solo di tre linee di un quotidiano o di una rivista, permette di identificare in modo preciso un particolare articolo. Le etichette QR possono trovare un’applicazione negli annunci pubblicitari a tutta pagina. Pensiamo ad un articolo sulla Palestina che stiamo leggendo su un quotidiano: inquadrandolo, potremo trovarci sul telefonino un elenco di articoli pubblicati da altri quotidiani sullo stesso tema in quel giorno, piuttosto che una storia costituita dagli articoli che hanno trattato questo tema fino ad arrivare all’oggi; potremmo anche trovare dei complementi alle notizie riportate in forma di filmato, dei collegamenti a blog sul tema, dei collegamenti a radio che in quel momento stanno trattando l’argomento. La lista di connessioni è talmente ampia che la vera sfida è nel riuscire a filtrare la quantità di informazioni e servizi esistenti con l’interesse della persona, il che può essere desunto dal profilo di chi richiede l’approfondimento. Le informazioni e i servizi collegabili ad un articolo, ad un semplice trafiletto, possono NOtIZIArIO tEcNIcO tElEcOm ItAlIA - Anno18 NumeroUNO2009 Atomi e Bit: l’Internet con le cose - roberto Saracco essere veicolati dallo stesso editore che ha stampato l’articolo o da altri attori. Questo sposta la fruizione in un contesto di ecosistema. Una delle domande aperte è proprio quella di mettere a valore l’ecosistema a vantaggio potenzialmente di tutti i partecipanti. 5.3 Medicinali Si sta assistendo ad un passaggio dalla medicina vista come prodotto, alla medicina vista come servizio. Il farmaco che troviamo sullo scaffale o che ci viene dato dal farmacista su presentazione della ricetta avrà probabilmente prezzi diversi a seconda dei servizi a questo associato. Dipenderà da noi sottoscrivere quello che ci interessa. Si potrà, ad esempio, richiedere di essere monitorati una volta al giorno, avere un check up a metà cura, o magari avere un monitoraggio continuo. Potremo richiedere di ricevere un messaggio che ci dice quando prendere la medicina, o richiedere un sistema di erogazione automatico del medicinale, eventualmente attivato da remoto dal centro di monitoraggio. Potremo richiedere che l’informazione sul medicinale, che stiamo prendendo, sia resa disponibile ad altri, diventando parte del nostro profilo condiviso e che venga fornita assistenza a questi. Sarà quindi possibile sapere se un certo alimento sia controindicato rispetto alla cura in corso. Inoltre sarà possibile fornire indicazioni sulla cura in corso ad ospedali o medici. La singola pillola, la confezione e la bottiglietta, conterranno un sistema di identificazione, in prospettiva un’etichetta RFID, che consentirà in modo automatico la rilevazione dell’identità e anche la memorizzazione dell’utilizzo (vedi figura 4). Basterà passare il telefonino sul barattolo delle pillole, per vedere cosa siano e quando siano state tolte NOtIZIArIO tEcNIcO tElEcOm ItAlIA - Anno18 NumeroUNO2009 dal boccettino. Chi sarà a seguire i progressi della cura? La casa farmaceutica,, il medico curante, ma anche diverse aziende di servizio, che potrebbero offrire di seguire non solo l’evoluzione della cura, ma anche di tenerci aggiornati su cosa prendere a complemento della cura, come regolare le nostre attività e magari metterci in contatto con persone che hanno i nostri stessi problemi. La varietà di servizi fornibili è veramente enorme e, tenendo conto del progressivo aumento della speranza di vita, vi sarà una crescente domanda di questi servizi. Nelle nazioni sviluppate la spesa sanitaria non solo è molto elevata, ma continua a crescere come continua a crescere la predisposizione a spendere in questo settore dalla parte del singolo all’aumentare dell’età. La progressiva consapevolezza che la salute dipende dalla coesistemza di vari fattori, alimentari, di comportamento, di ambiente oltre che dall’assunzione (il più limitata possibile) di medicinali sposta l’attenzione sul- Figura 4 - Barattolo di medicinali e pastiglie con tag rFID 117 Atomi e Bit: l’Internet con le cose - roberto Saracco l’ecosistema in cui viviamo e sui nostri comportamenti. La possibilità di evidenziare e tracciare questi comportamenti e l’ambiente diventa sempre più importante. La correlazione tra atomi e bit diventa quindi un elemento abilitante, che secondo alcuni porterà le nuove generazioni ad essere ultracentenarie con punte di 120 anni nel 2050 e 140 nel 2100. 5.4 La cosa incredibile è come per anni si sia sottovalutato questo spazio fondamentale per le vendite. Basti pensare al fatto che è proprio nei camerini che, nella stragrande maggioranza dei casi, matura la decisione d'acquisto. L’avvento delle etichette elettroniche permette di affrontare in modo completamente diverso il rapporto con il cliente appunto nel camerino (vedi figura 5). L’etichetta che sarà presente su ogni capo permette di identificare con precisione tipo, colore, taglia. Appena entrato nel ca- Shopping abbigliamento Lo shopping, qualunque shopping, affascina un po’ tutti, ma probabilmente quello che coinvolge maggiormente è la moda, il vestiario. Questo diventa parte di noi e di come ci presentiamo agli altri, per cui in genere vi si dedica particolare attenzione. I negozianti lo sanno e abbiamo visto come le grandi firme cerchino di creare un ambiente e un’esperienza emozionale ai loro clienti. Se la parte espositiva, dalle vetrine all’interno, è sempre stata molto curata, il camerino di prova è stato un po’ trascurato in molti negozi; solo in pochi questo ha ricevuto una doverosa attenzione. Alcuni trucchi che operano a livello percettivo sono stati applicati in alcuni camerini, ad esempio lo specchio in alcuni è leggermente convesso, quel tanto che basta per farci apparire più slanciati senza che ci si accorga del trucco. Le luci sono laterali in modo da nascondere rughe e imperfezioni della pelle, viene a volte inserito un aroma di vaniglia che pare stimoli la voglia di acquistare… 118 Figura 5 - Il magic mirror della Paxar, usato da alcuni negozi in Inghilterra NOtIZIArIO tEcNIcO tElEcOm ItAlIA - Anno18 NumeroUNO2009 Atomi e Bit: l’Internet con le cose - roberto Saracco merino possiamo sentire una voce che ci accoglie e si complimenta per la scelta, informandoci che questo fa parte della collezione primavera presentata a Palazzo Pitti. E subito parte la ripresa della sfilata di moda sullo schermo piatto incassato in una parete. Lì vediamo sfilare il modello/a con indosso proprio il capo che abbiamo in mano, stessa tinta. Certo fa un bell’effetto! Lo indossiamo, ci guardiamo allo specchio, ovvero in uno schermo in grado di sovrapporre informazioni, e vediamo che possiamo indicare che il capo ci sembra un po’ stretto… nessun problema! Un commesso in maniera automatica è avvertito e ci porta subito una taglia più grande. Se questa non fosse disponibile, ci viene indicato che questa è presente in un negozio della stessa catena situato a cinque minuti a piedi da qui. Un click sullo schermo e arriva la conferma che il capo è in nostra attesa in quel negozio per i prossimi trenta minuti. Indecisi sul colore? Ecco apparire tutte le nuances disponibili e possiamo vederle sovrapposte alla nostra figura. Si adatterà questa camicetta alla gonna che avevamo acquistato qualche tempo fa? Basta selezionarla dall’agenda acquisti effettuati, presente sul telefonino in termini di identità ed ecco sovraimporsi su di noi quella gonna, esattamente di quel colore e quella taglia. Sembra ok. O forse no? Meglio sentire il parere dell’amico e con un click ecco coinvolto in video conferenza il nostro amico, oppure con Twitter mandiamo l’immagine riflessa dallo specchio a tutti i nostri amici. Qualcuno sarà disponibile a chattare immediatamente, qualcun altro vedrà che è proprio vicino al negozio in cui siamo e farà una capatina a vederci di persona… Questo è quello che si chiama il social retail, il coinvolgimento di un gruppo nell’esperienza dello shopping. Come vediamo le opportunità aperte dalla tecnologia e dalla possibilità di identificare un oggetto sono veramente limitate solo dalla fantasia. 6 Conclusioni L’Internet con le cose aprirà interessanti spazi di business ed andrà a cambiare numerosi processi di business. Questi due aspetti sono di forte interesse per un Operatore sia perché aprono nuove fonti di introiti che non cannibalizzano quelli attuali, sia perché gli consentono di essere il motore dell’innovazione per tutto il sistema paese. Questo secondo aspetto è forse ancora più importante, in quanto da questo dipende l’evoluzione complessiva. Infatti, l’innovazione che Telecom Italia persegue investendo in ricerca può dare ritorni veramente significativi, solo se si accompagna ad un’evoluzione del sistema complessivo. Operare quindi nella ricerca in termini di laboratorio aperto, in partnership con molti attori che lavorano su svariati segmenti di mercato, diventa essenziale. A NOtIZIArIO tEcNIcO tElEcOm ItAlIA - Anno18 NumeroUNO2009 CRONIMI API CCD CRM Application Programming Interface Charged Coupled Device Customer Relationship Management ICT Information Communications Technologies M2M Machine to Machine NFC Near Field Communication OCR Optical Character Recognition QR Quick Response RFID Radio Frequency IDentification WiFi Wireless Fidelity WORM Write Once Read Many [email protected] 119 Atomi e Bit: l’Internet con le cose - roberto Saracco A UTORE roberto Saracco diplomato in informatica e laureato in matematica con un perfezionamento in fisica delle particelle elementari. Negli oltre trent’anni in Telecom Italia ha partecipato a molti progetti di ricerca in commutazione, reti dati, gestione della rete, occupando varie posizioni di responsabilità. Negli ultimi dieci anni i suoi interessi si sono spostati verso gli aspetti economici dell’innovazione. Attualmente è responsabile per Future Centre e Comunicazione Tecnica di Telecom Italia, dove guida gruppi di ricerca sulle implicazioni economiche dei nuovi ecosistemi e scenari di business. È senior member dell’IEEE, tra i direttori della Communication Society, nonché autore di numerose pubblicazioni in Italia e all’estero ■ 120 NOtIZIArIO tEcNIcO tElEcOm ItAlIA - Anno18 NumeroUNO2009 Cooperazione tra Internet Service Provider ed applicazioni peer-to-peer arcHitettUre L Gianni Canal, Enrico Marocco, Vinicio Vercellone e applicazioni peer-to-peer utilizzate per file-sharing sono oggi responsabili di una notevole parte del traffico Internet e di una quota significativa dei costi per aumentare la capacità di trasporto nelle reti dei service provider. Tale traffico può anche essere causa di congestioni di rete e, in generale, influire sulle prestazioni di applicazioni web, giochi online, streaming e VoIP. Questo articolo, oltre a fornire gli elementi necessari a comprendere la natura del traffico peer-to-peer, illustra i possibili approcci che i Service Provider hanno a disposizione per controllare questo tipo di traffico, miranti in vari modi a rendere più locale lo scambio di contenuti e tentare di sviluppare nuove occasioni di business. Viene inoltre presentata un'iniziativa per standardizzare una soluzione tecnica per la collaborazione tra applicazioni e reti recentemente avviata in IETF (Internet Engineering Task Force) e promossa da Telecom Italia. 1 Introduzione Il traffico Internet sta subendo da anni una trasformazione caratterizzata dall'incremento dell'incidenza del traffico generato da applicazioni peer-to-peer (P2P), utilizzate dapprima per file-sharing e di recente anche per comunicazioni real-time e streaming di 4 contenuti live. Tale traffico, che secondo le stime costituisce tra il 40% e l'85% del totale [1]1, può essere causa fenomeni di congestioni di rete. 1 Stime più recenti evidenziano un impatto molto maggiore del traffico video. La differenza sostanziale tra i due tipi di traffico è dovuta al fatto che, mentre i contenuti forniti da Notiziario tecNico telecom italia - anno18 NumeroUNo2009 > cooperazione tra internet Service Provider ed applicazioni peer-to-peer - Gianni canal, enrico marocco, Vinicio Vercellone sorse su link oceanici, mentre gli stessi contenuti sono disponibili a pochi chilometri di distanza. Studi recenti [2] mostrano che, introducendo negli algoritmi P2P meccanismi per allineare l'overlay costituito dalle connessioni tra i peer alla topologia delle reti sottostanti, è possibile ottenere un notevole miglioramento delle performance delle applicazioni stesse, ad esempio in termini di velocità di down-load, riducendo allo stesso tempo il consumo di risorse di rete. Il grafico in figura 2 mostra come vari la distribuzione delle connessioni tra i nodi di un overlay Gnutella nel caso in cui la selezione dei peer tenga in conto della posizione geografica. Negli ultimi anni sono stati proposti diversi meccanismi per ottimizzare i sistemi P2P in base alla topologia delle reti sottostanti. Un primo approccio consiste in algoritmi distribuiti basati su misurazioni effettuate dai peer stessi, mirate a stimare proprietà dei link fisici quali delay, jitter e packet loss rate. I risultati delle misurazioni vengono poi condivisi tra i vari peer del sistema, al fine di Figura 1 - incidenza del traffico P2P comporre un'approssimazione condivisa (Fonte: cachelogic) della mappa della rete che ogni client può utilizzare per effettuare la scelta dei peer a cui connettersi. Oltre ad CacheLogic Research I Internet Protocol Breakdown 1993-2006 email FTP avere attratto grande inte70 resse da parte della comuWeb P2P 60 nità scientifica, alcuni di 50 questi algoritmi [3, 4] sono stati implementati nelle appli40 cazioni più diffuse e sono tut30 t'ora utilizzati con discreti risultati. 20 Il limite più evidente di tale approccio consiste nel fatto 10 94 95 96 97 che le misurazioni che si 98 99 0 00 01 possono effettuare dagli en02 03 04 05 dpoint della rete sono gene06 ralmente o troppo costose – ad esempio stime di throughput richiedono scambi di grandi quantità > servizi centralizzati come YouTube o IPTV sono generaldi dati – o poco significativi – ad esempio mente replicati tramite soluzioni di cache nella rete locale, il traffico P2P rimane dominante nei link inter-dominio. semplici misurazioni di Round Trip Time La caratteristica distintiva delle applicazioni P2P – BitTorrent, eMule, Gnutella, Skype, GoogleTalk, Sopcast e PPLive – consiste nel fatto che gli utenti accedono a risorse come file o media relay disponibili in centinaia o talvolta migliaia di istanze distribuite su tutta la rete (Figura 1). Se da una parte l'altissimo livello di delocalizzazione è alla base del successo di tali applicazioni, allo stesso tempo ne costituisce il punto debole in termini di prestazioni. Infatti, dal momento che lo strato applicativo non ha generalmente accesso ad alcun tipo di informazione a riguardo della topologia della rete, quando un peer deve selezionare una specifica istanza della risorsa a cui accedere, ad esempio uno o più utenti da cui scaricare un determinato file, spesso non può fare altro che ricorrere ad una scelta casuale. A causa di tale dis-ottimizzazione, sono molto frequenti casi paradossali in cui, ad esempio, i download di file occupano ri- Percentage of Internet Traffic 93 Notiziario tecNico telecom italia - anno18 NumeroUNo2009 5 cooperazione tra internet Service Provider ed applicazioni peer-to-peer - Gianni canal, enrico marocco, Vinicio Vercellone Figura 2 - rappresentazione geografica di un overlay Gnutella nel caso in cui la selezione dei peer avvenga in maniera casuale (a sinistra) e con il supporto di informazioni di topologia (a destra) (Fonte: technishe Universitat Berlin) (RTT) non danno indicazioni sull’effettiva disponibilità di banda, cruciale nel caso del file-sharing. Un approccio alternativo, investigato negli ultimi anni sia in ambito accademico che industriale, prevede un ruolo attivo degli Internet Service Provider (ISP) nel guidare le applicazioni P2P ad effettuare la selezione dei peer a cui connettersi. Tale approccio, che parte dal presupposto che l'ottimizzazione del traffico P2P è di interesse sia per gli utenti che per i provider, prevede l'esposizione da parte degli ISP di informazioni di topologia di rete in maniera controllata, in modo da permettere alle applicazioni di effettuare scelte ottimali senza però svelare dettagli di implementazione generalmente ritenuti confidenziali. Le soluzioni più promettenti su questa linea sono state proposte nel 2008 da Deutsche Telekom [2] e, quasi contemporaneamente, da una partnership industriale fondata da Verizon, Yale University e 6 Pando Networks (un distributore di contenuti che fa uso di tecnologie P2P), diventata discretamente famosa con il nome di Provider Portal for P2P Applications (P4P) [5]. I risultati ottenuti da simulazioni e da sperimentazioni con client BitTorrent-like mostrano miglioramenti nelle performance delle applicazioni in termini di velocità di download, che variano tra il 15% e l'85%, ed una riduzione del traffico inter-dominio compresa tra il 34% e l'80%. Nel corso del 2008 Telecom Italia si è impegnata nel coordinamento del processo di creazione di un working group nell'Internet Engineering Task Force (IETF) per la standardizzazione di una tale soluzione ed ora ne è alla guida insieme ad Alcatel-Lucent e Neustar. 2 Caratteristiche del traffico P2P Una prima serie approfondita di studi sulle caratteristiche del traffico P2P e sull’effi- Notiziario tecNico telecom italia - anno18 NumeroUNo2009 cooperazione tra internet Service Provider ed applicazioni peer-to-peer - Gianni canal, enrico marocco, Vinicio Vercellone cienza delle strategie di caching è stata condotta da University of Washington [6]. Le analisi sono state effettuate nel 2002 sulla base di tracce reali raccolte sulla rete del campus universitario – un bacino di oltre 60000 utenti – ed hanno preso in esame il protocollo Kazaa in un periodo di 200 giorni, per un volume totale di 20TB di traffico corrispondenti a circa 1,6M di richieste di trasferimento di file. Alcune interessanti osservazioni riguardano le caratteristiche del traffico P2P analizzato. Il tipico mix di traffico di un’applicazione P2P è costituito da vari tipi di oggetti, quali audio, video, eseguibili ed immagini. La natura variegata dei contenuti trasferiti si riflette sull'andamento del workload risultante (Figura 3), che evidenzia la presenza di tre diversi segmenti corrispondenti ad altrettanti tipi di oggetti: di piccola taglia (inferiore a 10 MB), di medie dimensioni (da 10 a 100 MB) e di grandi dimensioni, tipicamente vicine ad 1 GB. Come si nota dal grafico, mentre la maggioranza delle richieste (91%) si riferisce ad oggetti inferiori a 10 MB, principalmente audio, la maggior parte dei byte trasferiti (65%) è coFigura 3 - Distribuzione degli oggetti P2P in funzione della dimensione (Fonte: University of Washington) Notiziario tecNico telecom italia - anno18 NumeroUNo2009 stituita da oggetti grandi, generalmente video. Da ciò si deduce tra l'altro che, se l'obiettivo è contenere il consumo di banda, bisognerà fare leva su questi ultimi; viceversa, se lo scopo è di migliorare la user experience complessiva, si dovrà tenere conto della fonte della maggioranza delle richieste. Una semplice ma importante differenza tra gli oggetti multimedia Kazaa ed il tipico workload web è dovuta al fatto che i primi sono “immutabili”, mentre le pagine web non lo sono. La natura dei contenuti scambiati ha delle implicazioni che si riflettono sulle caratteristiche del traffico P2P e lo rendono differente da quello web. Infatti, a differenza di quanto avviene con le pagine web, gli utenti P2P scaricano un certo contenuto solitamente una volta sola; dalle tracce di traffico Kazaa raccolte nello studio si deduce che questo si verifica per il 94% del tempo. Un'altra indicazione emersa riguarda la durata spesso limitata della popolarità degli oggetti P2P. A differenza delle pagine web più popolari, che tendono a rimanere relativamente stabili nel tempo, gli oggetti audio/video più condivisi sono spesso rimpiazzati da nuovi contenuti nell'arco di poche settimane; ciò si verifica in misura maggiore 7 cooperazione tra internet Service Provider ed applicazioni peer-to-peer - Gianni canal, enrico marocco, Vinicio Vercellone per i contenuti audio, che tendono a perdere la loro popolarità più rapidamente di quelli video. In questa dinamica di sostituzione i contenuti più popolari tendono ad essere costituiti da oggetti apparsi di recente, specie nel caso dei contenuti audio. Tuttavia, analizzando la distribuzione delle richieste, si può constatare come la maggior parte degli accessi si riferisca invece, complessivamente, ad oggetti più vecchi: ben 72% delle richieste per quelli di grandi dimensioni e 52% per quelli piccoli. Le caratteristiche intrinseche del traffico P2P si traducono in una diversa distribuzione statistica della popolarità dei contenuti rispetto a quella del web. Mentre quest'ultima può essere notoriamente modellata da una distribuzione di tipo Zipf 2, come ampiamente riportato in letteratura, lo studio ha Figura 4 - Distribuzione di popolarita` degli oggetti web e P2P Kazaa (Fonte: University of Washington) permesso di verificare che la distribuzione di popolarità dei contenuti P2P se ne discosta in qualche misura. L'andamento è evidenziato nel grafico di figura 4, che riporta il numero di richieste per un certo oggetto in 2 La distribuzione Zipf esprime la relazione tra la frequenza (denominata anche “size”) di un evento ed il suo “rank”, ossia la sua posizione nella classifica di popolarità relativa all’insieme degli eventi considerati. Applicazioni per file-sharing: eMule Il client eMule è la più popolare applicazione di file sharing basata sul protocollo eDonkey; di seguito ne è descritto brevemente il funzionamento. Identificativi di client e file All’avvio di eMule, il client sceglie un server tra quelli presenti in una apposita lista sul quale si registra stabilendo una connessione ed ottenendo un identificativo (Client ID). Dopo l’assegnazione dell'ID, il client invia al server della rete eDonkey la sua lista di file condivisi. Ad ogni file è assegnato un File ID, che lo identifica in base al suo contenuto. In particolare, il file viene diviso in parti di 9.28 MB, alle quali viene applicato l’algoritmo di hashing MD4, ottenendo degli Hashset che combinati formeranno il File ID, utilizzato anche per verificare l’integrità del file scaricato. Ricerca di un file La ricerca di un file può avvenire secondo due diverse modalità. In modalità Server, il client invia un messaggio Search Files contenente le keyword di ricerca al server principale con il quale ha stabilito la connessione, e ne riceve in risposta una lista con i risultati della ricerca. Tale lista contiene, per ciascun file: il File ID, l'indirizzo IP di uno dei client che 8 Notiziario tecNico telecom italia - anno18 NumeroUNo2009 > cooperazione tra internet Service Provider ed applicazioni peer-to-peer - Gianni canal, enrico marocco, Vinicio Vercellone funzione del suo rank. Si può notare che la prima parte della curva si discosta dall’andamento della distribuzione Zipf rappresentata dalla retta di interpolazione (tale scostamento è enfatizzato dall'impiego di una scala logaritmica su entrambi gli assi), anche se la correlazione rimane sempre molto elevata. In pratica, come si vede dal grafico, la curva è appiattita nella parte corrispondente ai contenuti più popolari, indicando che questi ultimi sono richiesti complessivamente un numero di volte inferiore a quanto previsto dalla distribuzione Zipf. I precedenti risultati sono confermati anche da altri studi indipen- > denti che mostrano inoltre come l'andamento sia caratteristico della fruizione di contenuti video, indipendentemente dal fatto che il canale utilizzato sia il download, invece che il noleggio o il botteghino. 2.1 Efficienza delle tecniche di caching L’analisi condotta da University of Washington ha prodotto anche una serie di interessanti valutazioni [6] riguardo all'efficienza delle politiche di caching. È opportuno pre- possiede il file ed ulteriori dati tra cui il nome del file, la dimensione ed il numero di fonti. In modalità Global, attivata quando il numero delle fonti non è sufficiente, il meccanismo precedente viene arricchito da una ricerca parallela, contattando altri server della sua lista, alla ricerca di ulteriori risultati. Ricerca delle fonti Individuato il file che intende scaricare, l’utente lo inserisce nella lista dei trasferimenti ed invia al server su cui è registrato un messaggio Get Sources, che ne specifica il File ID, ricevendo come risposta un messaggio Found Sources con la lista degli indirizzi dei client che condividono il file. Se il numero di fonti individuate è inferiore ad un determinato valore di soglia, il client invia anche dei messaggi Get Sources ad altri server presenti nella lista, per ottenere ulteriori indirizzi di peer. Dialogo tra peer e trasferimento dei file Ottenuti gli indirizzi, il client (A) instaura una connessione con ognuno dei peer (B) nella lista, avviando una procedura di handshake che ne consente la mutua identificazione. Al termine di questa fase, A può richiedere a B il file desiderato, tramite i messaggio di File Request e File Status Request, a cui B risponde con un File Request Answer, contenente il nome del file e un File Status, che ne specifica il File ID e quali parti del file possiede. Al successivo invio a B della richiesta di download, tramite il messaggio Slot Request, possono verificarsi due situazioni: • La coda di servizio di B è vuota: A riceve un messaggio di Slot Given ed avvia il download effettivo indicando le parti del file che desidera scaricare tramite il messaggio Request Parts. • La coda di servizio di B non è vuota: in tal caso B comunica ad A la sua posizione all’interno della coda, tramite il messaggio Queue Ranking; in funzione del ranking, la connessione può essere chiusa e riaperta da B quando A raggiungerà la testa della coda, per iniziare il download come descritto al punto precedente. In tal caso si attiva un meccanismo di keep-alive per aggiornare A sulla sua posizione in coda. Infine, al temine della ricezione delle parti del file specificate nei messaggi Request Parts, A invia a B un messaggio di Slot Release e chiude la connessione. Il messaggio Offer Files Per comunicare al server su cui è registrato la propria lista di file condivisi il client utilizza il messaggio Offer Files, nel quale specifica anche se sono disponibili interamente e parzialmente, che viene emesso al momento della connessione e rinnovato periodicamente. Il messaggio serve inoltre ad aggiornare il server quando la lista dei file condivisi cambia, in particolare al termine di un download. Notiziario tecNico telecom italia - anno18 NumeroUNo2009 9 cooperazione tra internet Service Provider ed applicazioni peer-to-peer - Gianni canal, enrico marocco, Vinicio Vercellone mettere che si tratta di risultati teorici, ottenuti mediante simulazione di un modello ideale di cache, che rappresentano senza dubbio un limite superiore alle prestazioni ottenibili nella pratica. Gli studi mostrano in sostanza che le performance del caching di traffico P2P, valutate in termini di hit rate 3, sono paragonabili e generalmente superiori a quelle ideali del caching di traffico web [7]. La figura 5 riporta, a titolo di esempio, l’andamento delle prestazioni della cache in funzione della numerosità dei client. Il grafico mostra l’hit rate riferito al traffico uscente. Si può osservare che una popolazione di 1000 client percepirebbe un hit rate del 40% circa, che salirebbe al crescere del numero di peer fino a raggiungere un valore introno all'85%, nel caso di 500.000 client. Ciò dimostra che l'efficacia del caching di traffico P2P, già vantaggioso per un numero contenuto di peer, aumenta significativamente al crescere della popolazione. Lo studio di University of Washington ha indagato anche i benefici derivanti dall’eventuale adozione di politiche di reinstradamento delle richieste verso peer locali, come strategia equivalente al caching. L’obiettivo della politica, denominata “locality-aware routing”, è quindi quello di sfruttare le repliche dei contenuti già presenti in ambito locale; essa si fonda sull'osservazione che, in base alle tracce analiz- 3 L'hit rate è definito come la percentuale di successi nell'accesso ai contenuti all'interno della cache. 4 Il modello presuppone una conoscenza completa della disponibilità dei peer e degli oggetti serviti, assume inoltre che i peer siano dotati di capacità di storage illimitata e che non appena hanno scaricato un oggetto lo rendano dispo- 10 zate, ben l’86% dei byte scaricati da peer esterni era già presente in un altro peer all’interno del campus al momento della richiesta. In pratica quindi, favorendo, quando possibile, la scelta di peer locali, si realizza una sorta di caching distribuito dei contenuti. I principali risultati dell'analisi di questa strategia, assumendo un modello ideale 4, evidenziano come le prestazioni (hit rate) varino tra il 68% ed il 37%, in funzione della dimensione degli oggetti. Gli studi mostrano anche che uno dei principali fattori che influenzano l'efficienza di queste politiche è rappresentato dal livello di disponibilità dei peer che sono in grado di servire il contenuto richiesto. Infatti, la disponibilità dell’oggetto richiesto non è più garantita intrinsecamente dalla presenza delle cache. Per questo, la presenza di un sottoinsieme di peer con elevata disponibilità rappresenta una condizione necessaria e sufficiente per raggiungere una buona efficienza del sistema. Figura 5 - Prestazioni ideali del caching di traffico P2P Kazaa (Fonte: University of Washington) Notiziario tecNico telecom italia - anno18 NumeroUNo2009 cooperazione tra internet Service Provider ed applicazioni peer-to-peer - Gianni canal, enrico marocco, Vinicio Vercellone Applicazioni per file-sharing: BitTorrent BitTorrent è un protocollo di file sharing peer-to-peer che conta svariate implementazioni tra cui BitComet, μTorrent ed Azureus. Su scala mondiale il protocollo è molto diffuso, mentre in ambito Europeo, ed in particolare in Italia, il traffico BitTorrent è ancora inferiore a quello eDonkey. Funzionamento del protocollo Per effettuare un download, gli utenti devono procurarsi, collegandosi solitamente ad un sito web, un file con estensione .torrent che contiene informazioni sul contenuto richiesto e l’indirizzo del tracker che funge da coordinatore della distribuzione. Collegandosi al tracker indicato nel file .torrent, il client ottiene la lista dei peer che sono attualmente coinvolti nella condivisione del file. In particolare, quelli che dispongono di una intera copia del file sono denominati seeder, mentre quelli che devono ancora terminarne il download leecher. Il client si connette quindi ad un sottoinsieme di questi peer – scegliendo indistintamente seeder e leecher – ed ottiene i diversi pezzi in cui è suddiviso il file. Il gruppo di peer connessi fra loro per realizzare il trasferimento di un file è denominato swarm. Scelta del frammento da scaricare Dopo aver ottenuto dal tracker la lista dei peer, il client inizia a contattarli per procedere alla richiesta del file. Per facilitare il download, questo viene suddiviso in pezzi, che vengono scambiati tra i peer; la decisione di quale frammento scaricare da ogni peer segue regole precise: • Rarest first: prevede di scegliere per primi i pezzi condivisi dal minor numero di peer e mira ad evitare il rischio di una loro indisponibilità; • Random First Piece: eccezione alla regola precedente, viene applicata all’inizio del download, quando il peer non ha ancora pezzi del file per l'upload e quelli rari potrebbero essere disponibili solo su un peer; • Endgame Mode: modalità utilizzata nella fase finale del download. Per evitare di scaricare pezzi da peer molto lenti, si inviano richieste per i pezzi mancanti a tutti i peer, seguite da messaggi di cancel non appena il blocco viene scaricato. “Tit-for-tat” L’allocazione delle risorse non viene realizzata in modo centralizzato in BitTorrent, ma ogni peer si preoccupa di massimizzare la propria velocità di download. L’efficienza complessiva del trasferimento dipende infatti fortemente dalle politiche utilizzate dai client per determinare a quali peer inviare o richiedere i vari pezzi del file. Per raggiungere questo obiettivo BitTorrent adotta una strategia conosciuta come “tit-for-tat” al fine di approssimare un sistema Pareto-efficiente. Secondo questa politica, che mira a stabilire un principio di reciprocità, nell'effettuare l'upload dei loro pezzi del file, i client privilegiano quei peer che forniscono loro altri dati in cambio. Per gestire l'upload, in modo da realizzare la strategia tit-for-tat, viene utilizzato il cosiddetto “choke algorithm”. Il choking consiste infatti in un temporaneo rifiuto ad inviare dati verso un peer (ma non a riceverli); il client BitTorrent decide quali peer sbloccare basandosi su criteri piuttosto elaborati, privilegiando tipicamente i peer che gli offrono la maggiore velocità di download. La lista dei peer da sbloccare viene ricalcolata ogni 10 secondi, per permettere al trasferimento di raggiungere una situazione di regime. Per ovviare a limitazioni che insorgerebbero in particolari condizioni, viene adottato un meccanismo aggiuntivo denominato “optimistic unchoking”. Il client riserva cioè una porzione della sua banda di upload a peer scelti in modo casuale. L'optimistic unchoking ottiene il duplice scopo di saggiare la capacità di download di nuovi peer e di gestire la fase iniziale di bootstrap all'aggiunta di un nuovo peer nello swarm. Notiziario tecNico telecom italia - anno18 NumeroUNo2009 11 cooperazione tra internet Service Provider ed applicazioni peer-to-peer - Gianni canal, enrico marocco, Vinicio Vercellone Vale la pena notare che l’utilizzo di criteri di instradamento “locality-aware” ha il vantaggio di permettere di superare le implicazioni di carattere legale collegate al caching di contenuti protetti da copyright. L'interesse per queste tecniche di ottimizzazione ha quindi portato alla nascita di svariate proposte che si ispirano alla strategia di “locality awareness”, discusse nel seguito del documento. 3 Stato dell'arte delle tecniche di ottimizzazione Tra le tecniche per l'ottimizzazione delle prestazioni dei sistemi P2P, le prime proposte in letteratura avevano lo scopo di permettere alle applicazioni di ottenere informazioni riguardanti le infrastrutture di rete per migliorare la selezione dei peer a cui connettersi – ad esempio per scaricare un determinato contenuto (BitTorrent, eMule), o per avere supporto per NAT traversal (Skype). Una delle prime proposte in questo senso è il sistema Global Network Positioning (GNP) [8], che ha aperto la strada al filone di ricerca dei cosiddetti Internet Coordinate System (ICS). In tali sistemi, nati con lo scopo di determinare in maniera distribuita le coordinate geografiche degli indirizzi Internet, i nodi che vi partecipano effettuano misurazioni di RTT tra di loro e calcolano la loro posizione tramite tecniche di triangolazione. GNP, pur essendo un sistema distribuito, richiede un'infrastruttura composta da nodi ben noti, detti “landmark”, di cui sono conosciute le coordinate geografiche. Per ovviare a questa limitazione, ricercatori del Microsoft Research Center hanno proposto una variante di GNP, Practical Internet Coordinates (PIC) [9]. L'estensione introdotta in PIC consiste essenzialmente in un meccanismo che permette di utilizzare come landmark dei 12 nodi qualsiasi di cui sia già stata calcolata la posizione, limitando gli eventuali errori di approssimazione. Sia GNP che PIC danno ottime approssimazioni a patto che non si verifichino violazioni della diseguaglianza triangolare, ovvero che presi tre punti, A, B, C, la distanza tra A e B non risulti maggiore della somma delle distanze tra A e C e tra C e B. Purtroppo, mentre tali violazioni non si verificano nello spazio euclideo, esse sono molto comuni nelle complesse architetture di rete che compongono Internet (cioè, presi tre nodi a caso, A, B, C, non è raro che il RTT tra i nodi A e B sia significativamente maggiore della somma dei RTT tra A e C e tra C e B). Per ottenere buone approssimazioni anche in presenza di diseguaglianze triangolari, il sistema Vivaldi [3], oltre a latitudine e longitudine, introduce una terza dimensione con lo scopo di limitare errori ed anomalie, e definisce un processo continuo di approssimazione. Vivaldi si è rivelato un metodo particolarmente accurato per stimare le latenze tra nodi, tanto da venire implementato in Azureus, uno dei client BitTorrent più diffusi. Non tutte le soluzioni proposte in letteratura mirano però a realizzare un ICS. In Meridian [10], ad esempio, ogni nodo tiene traccia di un sottoinsieme di nodi “vicini”, organizzandoli in anelli concentrici in base alla loro distanza. Utilizzando interrogazioni ricorsive, Meridian riesce ad ottenere elevati livelli di accuratezza e, anche se il sistema risulta meno generico di un ICS, fornisce informazioni di estremo valore alle applicazioni P2P che devono ottimizzare la scelta dei peer con cui scambiare dati. Un approccio sicuramente meno rigoroso dal punto di vista scientifico, ma altrettanto efficace, è quello adottato da Ono [4], un progetto della Northwestern University. L'idea è molto semplice: invece di realizzare un sistema complesso di misurazioni e scambio di dati, il software Ono invia delle richieste fittizie ai server di Akamai, una delle Notiziario tecNico telecom italia - anno18 NumeroUNo2009 cooperazione tra internet Service Provider ed applicazioni peer-to-peer - Gianni canal, enrico marocco, Vinicio Vercellone maggiori Content Delivery Network (CDN), ed utilizza i messaggi di ridirezione che ottiene come risposta per avere una stima approssimata della propria posizione. La particolarità di Ono è dovuta in parte al fatto che l'overhead di traffico generato per ottenere le informazioni è praticamente nullo, ed in parte alla popolarità che ha raggiunto come plugin del client Azureus. 4.1 4 Ottimizzazione tramite collaborazione tra ISP e P2P Invece di stimare la topologia della rete a livello applicativo tramite misurazioni end-toend ed algoritmi distribuiti, tale informazione può essere esposta dalle entità che gestiscono la rete stessa – generalmente ISP ed operatori di rete. Infatti, essi hanno completa conoscenza della topologia delle reti che amministrano e, al fine di ridurre le congestioni sui link critici, sono interessati ad aiutare le applicazioni ad ottimizzare il traffico che esse generano. È essenziale notare che, affinché sia possibile un’effettiva collaborazione tra ISP ed applicazioni P2P, è necessario che lo scambio di informazioni preservi un elevato livello di privacy su entrambi i fronti. Da un lato, i service provider devono essere in grado di dare indicazioni alle applicazioni senza svelare dettagli confidenziali a riguardo dell'implementazione delle proprie reti e senza comprometterne la sicurezza; dall'altro lato, gli utenti devono potere accedere alle informazioni esposte dagli ISP senza essere costretti ad indicare quale uso abbiano intenzione di farne. Notiziario tecNico telecom italia - anno18 NumeroUNo2009 P4P: Provider Portal for P2P Applications L'architettura proposta da Yale University [5] è stata adottata dal working group P4P della Distributed Computing Industry Association (DCIA), un gruppo che vede la partecipazione di numerosi ISP, vendor di hardware e software, compagnie che utilizzano tecnologie P2P ed università, riuniti con lo scopo di definire meccanismi per accelerare la distribuzione di contenuti ed ottimizzare l'utilizzo delle risorse di rete. Nell'architettura P4P (Figura 6), giocano il ruolo principale server chiamati “iTracker”, controllati dai service provider ed acceduti dalle applicazioni – o, più in generale, da elementi dei sistemi P2P – per ottimizzare la scelta dei peer a cui connettersi. Un iTracker può offrire tre interfacce: • info: permette agli elementi del sistema P2P di ottenere informazione “opaca” associata ad un determinato indirizzo IP. Tale informazione è mantenuta opaca per nascondere l'effettiva topologia di rete, Figura 6 - architettura della soluzione P4P (Fonte: Yale University) 13 cooperazione tra internet Service Provider ed applicazioni peer-to-peer - Gianni canal, enrico marocco, Vinicio Vercellone ma può comunque essere utilizzata per calcolare la distanza tra diversi indirizzi IP; • policy: permette agli elementi del sistema P2P di ottenere informazioni sulle preferenze dell'Operatore per quanto riguarda l'utilizzo della propria rete. Ad esempio, l'ISP può utilizzare questa interfaccia per indicare un insieme di sottoreti da preferire nella scelta dei peer, in quanto provviste di accessi ad altissima velocità; • capability: permette agli elementi del sistema P2P di richiedere specifiche capability, ad esempio un determinato livello di banda garantita o l'accesso ad una cache. La soluzione P4P è stata valutata con simulazioni ed esperimenti su PlanetLab 5, ed in field trial utilizzando il software di content delivery distribuito da Pando Networks (variante di BitTorrent); i risultati di tale valutazione hanno mostrato notevoli miglioramenti, sia per quanto riguarda le performance delle applicazioni che in termini di utilizzo delle risorse di rete. 4.2 “L'Oracolo” In maniera analoga a quanto previsto dall'architettura P4P, nella soluzione proposta dai ricercatori di Technishe Universitat Berlin e Deutsche Telekom, ogni operatore di rete mette a disposizione un server, chiamato “oracolo”, che ha lo scopo di aiutare le applicazioni P2P a scegliere peer ottimali. A differenza della soluzione P4P, invece di fornire informazione di topologia opaca, l'oracolo espone una funzionalità di ordinamento di peer. Il meccanismo è semplice: un'applicazione P2P invia all'oracolo gestito dal proprio 5 Testbed composto di circa 900 nodi distribuiti in tutto il mondo, utilizzato da università ed enti di ricerca (http://www.planet-lab.org/). 14 ISP la lista degli indirizzi dei potenziali peer che condividono una risorsa a cui l'utente è interessato – un determinato file o un relay media, ad esempio – per poi riceverla ordinata in base alle policy di rete. Per esempio, l'ISP può preferire i peer all'interno della propria rete, magari assegnando una priorità più alta a quelli geograficamente più vicini o con accessi a capacità maggiore. Quando l'applicazione avrà ottenuto la lista ordinata, sarà poi sua responsabilità stabilire connessioni con i peer che potrà scegliere autonomamente, ma a quel punto avrà sufficiente informazione per effettuare una selezione ottimale. Tale soluzione che, oltre alla semplicità, ha il pregio di riuscire a guidare la scelta dei peer mantenendo nascosta la topologia della rete, è stata valutata con simulazioni ed esperimenti nel testbed PlanetLab e ha mostrato una significativa riduzione del traffico P2P nei link inter-dominio ed un miglioramento delle performance anche quando solo un sottoinsieme dei peer fa effettivamente uso dell'oracolo. 5 Miglioramenti: dove, come e quanto Le tecniche di ottimizzazione del traffico P2P, siano esse basate su caching, su misurazioni a livello applicativo o su esposizione di informazioni a riguardo della topologia della rete, hanno il duplice scopo di migliorare le prestazioni delle applicazioni e di razionalizzare l'utilizzo delle risorse di rete. In particolare, le soluzioni proposte negli ultimi anni sono state studiate in simulazioni e field trial utilizzando per lo più applicazioni di file-sharing al fine di valutare i miglioramenti in termini di velocità di download e riduzione del traffico inter-dominio. Tra gli studi più completi ed interessanti sono sicuramente da segnalare le già citate Notiziario tecNico telecom italia - anno18 NumeroUNo2009 cooperazione tra internet Service Provider ed applicazioni peer-to-peer - Gianni canal, enrico marocco, Vinicio Vercellone che di ottimizzazione (nel particolare, il trial mirava a valutare tre diversi approcci, risultati poi relativamente equivalenti). I risultati ottenuti hanno mostrato una diminuzione dell'ordine dell'80% del traffico in ingresso e del 34% del traffico in uscita 6, in linea con i miglioramenti osservati nelle simulazioni effettuate dai ricercatori di Technishe Universitat Berlin (riduzione tra il 38% ed il 75% delle connessioni inter-dominio [2]) e con le previsioni pubblicate da Washington University (riduzione teorica del traffico in ingresso fino all'86% [6]). pubblicazioni di University of Washington [6], che hanno valutato l'efficienza di soluzioni di caching e di tecniche basate su “locality awareness” nella rete di un vasto campus universitario, e da Technishe Universitat Berlin [2], che hanno presentato i risultati di varie simulazioni effettuate sul testbed distribuito PlanetLab. Importanti risultati sono anche stati pubblicati da Northwestern University e dal forum industriale DCIA, che hanno integrato le soluzioni Ono [4] e P4P [5] in applicazioni reali e ne hanno misurato le performance in field trial con decine di migliaia di utenti. 5.1 Riduzione del traffico inter-dominio 5.2 Ad ottobre 2008 il provider statunitense Comcast ha pubblicato i dati relativi ad un field trial della soluzione P4P [11] realizzato nel contesto del forum DCIA con la collaborazione di Pando Networks e congiuntamente ad AT&T, Verizon e Telefonica. Il grafico in figura 7 mostra la differenza di traffico inter-dominio misurata sui peering point della rete di Comcast, nei casi in cui la selezione dei peer da cui scaricare i contenuti avvenga in maniera casuale invece che tramite politi- Performance delle applicazioni I dati più interessanti a riguardo dell'impatto delle tecniche di ottimizzazione del traffico P2P sulle performance delle applicazioni di file-sharing sono probabilmente quelli pubblicati da Northwestern University [4] nell'ambito del progetto Ono. La singolarità di tali dati consiste nel fatto che essi sono stati raccolti tramite un plugin distribuito con il software Azureus, uno tra i più famosi client BitTorrent, utilizzato da milioni di utenti. I risultati aggregati hanno mostrato un aumento Figura 7 - traffico da e verso internet misurato su peering point della rete comcast per cinque swarm di identiche dimensioni, ma facenti uso di diverse politiche di ottimizzazione. risultati di un field trial P4P eseguito a luglio 2008 sulle reti di comcast, Verizon, at&t e telefonica (Fonte: comcast) 6 Il differente impatto sul traffico inbound ed outbound è dovuto al fatto che, mentre i client all'interno della rete di Comcast effettuavano scelte localizzate, quelli in quasi tutte le altre reti (ad eccezione delle reti di AT&T, Verizon e Telefonica che partecipavano anch'essi al trial) continuavano ad effettuare scelte casuali. Notiziario tecNico telecom italia - anno18 NumeroUNo2009 15 cooperazione tra internet Service Provider ed applicazioni peer-to-peer - Gianni canal, enrico marocco, Vinicio Vercellone medio del 31% della velocità di download, con picchi del 207% in zone in cui sono disponibili reti ad altissima velocità. Un simile aumento di performance è stato rilevato anche nei field test P4P già discussi in precedenza; la tabella 1 mostra che, rispetto al caso tradizionale in cui la selezione dei peer avviene in maniera casuale, la velocità di download vede un incremento che varia tra il 13% e l'85%, in funzione della tipologia della rete e della politica di ottimizzazione adottata. 5.3 L'impatto degli accessi ad altissima capacità Una possibile spiegazione per tale fenomeno, peraltro osservato anche tra nuclei di utenti Fiber To The Home (FTTH) nei primissimi field test P4P effettuati sulla rete di Verizon 8, potrebbe essere ricercata nelle dinamiche degli swarm “maturi”, ovvero quelli in cui il numero dei seeder è notevolmente maggiore a quello dei leecher. In questo caso, infatti, la capacità disponibile è maggiore di quella richiesta e dunque la scelta dei peer più performanti ha più influenza sulle prestazioni del sistema. 6 Application-Layer Traffic Optimization (ALTO) Un effetto interessante sui miglioramenti delle performance applicative si riscontra nelle reti in cui un sottoinsieme degli utenti ha accessi a capacità relativamente superiore rispetto al resto della rete. Infatti, come evidenziato dal caso di Comcast nel trial P4P (tabella 1), quando anche solo una piccola percentuale degli utenti ha capacità di upload maggiore alla media 7 i miglioramenti hanno impatti significativi sulle prestazioni di tutta la rete. 16 Affinché le soluzioni per l'ottimizzazione del traffico P2P abbiano successo – in particolare quelle che prevedono l'esposizione di informazioni sulla topologia della rete – è necessario che esse vengano adottate su larga scala, sia dagli ISP che nelle applicazioni. Telecom Italia, a partire da marzo 2008, si è impegnata a creare un contesto in cui ren- 7 A luglio 2008 la rete di Comcast era composta di circa il 90% di accessi DOCSIS 2.0 (con banda in upload di 0.384 o 2 Mbit/s) ed il restante in tecnologia DOCSIS 3.0 (con upload a 3, 5 o 10 Mbit/s). 8 http://openp4p.net/front/fieldtests Swam Global Average B/s Random Peer Assignment 144,045 P4P Fine Grained 162,344 +13% 402,043 +57% P4P Generic Weight Matrix 163,205 +13% 463,782 +82% P4P Coarse Grained 166,273 +15% 471,218 +85% Change Comcast Average B/s Change 254,671 tabella 1 - Performance in termini di velocita` di download misurati in quattro swarm di identiche dimensioni, ma facenti uso di diverse tecniche di ottimizzazione. risultati di un field trial P4P eseguito a luglio 2008 sulle reti di comcast, Verizon, at&t e telefonica (Fonte: comcast) Notiziario tecNico telecom italia - anno18 NumeroUNo2009 cooperazione cooperazione tra internet tra internet Service Provider Service Provider ed applicazioni ed applicazioni peer-to-peer peer-to-peer - enrico -marocco, Gianni canal, Gianni enrico canal,marocco, Vinicio Vercellone Vinicio Vercellone Soluzioni commerciali per il caching Le tecniche di caching sono già relativamente mature e disponibili dal punto di vista industriale. Tra i vendor che dispongono di soluzioni commerciali si segnalano ad esempio le realizzazioni dei costruttori Oversi e PeerApp. In entrambi i casi si tratta di società startup fondate nel 2004. Oversi, con quartier generale in Israele e finanziata in parte anche da Cisco Systems, ha sviluppato una tecnologia di caching destinata alla gestione del traffico P2P e video, designata con il nome commerciale OverCache™. La piattaforma Oversi adotta un'architettura distribuita di tipo grid ed è concepita per essere inserita in modalità out-of-band; la cache non viene quindi a trovarsi sul percorso principale del traffico verso i clienti, con benefici sull'affidabilità di rete. La soluzione è destinata tipicamente ad essere collocata in uno o più punti d'accesso dell'ISP. La filosofia utilizzata da Oversi è quella di integrarsi con gli overlay P2P supportati in modo da apparire come un peer. Il funzionamento della piattaforma segue quindi i tipici passi del comportamento di un protocollo P2P. In una prima fase, OverCache™ monitora la rete, analizzando a questo scopo i messaggi di controllo del protocollo P2P, per stabilire quali sono i file più popolari e di conseguenza i candidati ottimali per il caching. Quindi scarica dalla rete i contenuti opportuni, comportandosi come un peer, per immagazzinarli nelle cache e renderli così disponibili all'insieme dei peer locali serviti. La soluzione Oversi non intende sostituire i più tradizionali apparati di controllo del traffico basati su tecnologie di ispezione dei pacchetti, ma piuttosto integrarsi con questi ultimi. PeerApp è un azienda con sede principale in Massachusetts, specializzata in soluzioni per l’ottimizzazione del traffico P2P e video streaming mediante l'impiego di tecniche di caching. La piattaforma commercializzata da PeerApp è denominata UltraBand™ . Anche gli apparati UltraBand adottano un’architettura distribuita di cache server, abbinata a tecnologie di storage in rete; in questo caso però il sistema opera a livello di data link, senza utilizzare indirizzi IP pubblici visibili, inserendosi sul percorso del traffico per realizzare funzioni di caching trasparente. La cache quindi non si comporta come un peer ed il suo inserimento tra gli utenti e la rete viene realizzato da apparati che effettuano la redirezione dei flussi di traffico su base applicativo. Le richieste inviate dagli utenti vengono quindi intercettate e ridirette verso il modulo UltraBand, che può erogare il contenuto localmente se questo è già presente in cache, oppure immagazzinarlo nel momento in cui viene scaricato dall’utente. Al fine di garantire il funzionamento trasparente della cache, anche nel caso che il contenuto sia erogato localmente il sistema provvede a mantenere attiva la connessione tra i peer, emulando eventuali messaggi di keepalive scambiati dal protocollo. È opportuno notare che, sebbene i costruttori citati affermino di ottemperare, con le loro soluzioni, alle principali disposizioni in materia di copyright, le implicazioni di carattere legale restano un aspetto che necessita di un'attenta valutazione al fine di asserire l'effettiva applicabilità delle tecniche di caching nella rete di un ISP. 17 Notiziario tecNico telecom italia - anno18 NumeroUNo2009 Notiziario tecNico telecom italia - anno18 NumeroUNo2009 17 cooperazione tra internet Service Provider ed applicazioni peer-to-peer - Gianni canal, enrico marocco, Vinicio Vercellone dere possibile una discussione che coinvolga tutti gli attori interessati: ISP, comunità P2P, vendor di software e hardware, nonché università. Tale contesto ha trovato spazio in IETF, l'ente di standardizzazione che definisce i protocolli utilizzati in Internet (IP, TCP, HTTP), nella forma del working group Application-Layer Traffic Optimization (ALTO) 9. La roadmap di ALTO, approvata a novembre 2008 e della durata di due anni, prevede uno studio dettagliato dei requisiti di service provider ed applicazioni che porterà alla specifica di un protocollo per l'esposizione controllata delle informazioni necessarie all'ottimizzazione del traffico P2P. 7 Opportunità di Business L'ottimizzazione del traffico P2P è in primo luogo di interesse per gli ISP in ottica di riduzione dei costi e razionalizzazione delle risorse di rete. Infatti, la motivazione che ha inizialmente attratto l'interesse industriale è stata proprio la prospettiva di ridurre il traffico P2P sui link inter-dominio, cioè quello che incide in maniera più significativa sui costi di transito Internet, di una quota che, come si è visto, è ragionevole attendersi tra il 40% e l'80%. Inoltre, a differenza degli approcci che mirano a limitare il traffico P2P, le tecniche di ottimizzazione basate su caching e localizzazione portano ad una situazione win-win, dove sia gli utenti che i service provider ne hanno un beneficio. Lo stesso vantaggio che trarrebbero gli utenti dall'accesso ad una rete “ottimizzata” per il P2P può costituire anche un punto di forza, sia in ottica competitiva, cioè come 9 http://www.ietf.org/html.charters/alto-charter.html 18 fattore determinante nella scelta da parte del cliente del service provider con cui stipulare un abbonamento ad Internet, sia come servizio a valore aggiunto, per cui i clienti interessati siano disposti a riconoscere un corrispettivo all'effettivo aumento delle prestazioni delle proprie applicazioni. Quest'ultimo caso, probabilmente il più attraente dal punto di vista commerciale, è in particolare ipotizzabile in scenari in cui, ad esempio, il servizio di ottimizzazione esposto ad utenti “premium” permetta un aumento delle prestazioni significativamente maggiore rispetto a quello offerto alla clientela “base”. Come discusso nelle sezioni precedenti, un tale miglioramento è ipotizzabile soprattutto in reti in cui una parte degli accessi – non necessariamente la parte “premium” – ha capacità di upload significativamente maggiore rispetto alla media (ad esempio FTTH) e nel caso in cui l'informazione esposta agli utenti sia altamente personalizzata (come ad esempio avviene nella soluzione basata su un “oracolo” che fornisce una funzione di ordinamento di liste di indirizzi IP) e non praticamente condivisibile. È in ogni caso importante tenere in considerazione che, per l'effettiva diffusione delle tecniche basate sulla localizzazione del traffico – e di conseguenza per il loro successo – è indispensabile che tutti gli utenti ne possano trarre un qualche beneficio. Infine, un'ulteriore opportunità che deriva dall'applicazione innovativa di queste tecniche consiste nell'esposizione di informazione “pregiata” e nell'abilitazione all'utilizzo di eventuali infrastrutture di caching, non direttamente agli utenti, ma a compagnie che utilizzano tecnologie P2P per la distribuzione di contenuti. Oltre al caso di Pando Networks, tra le fondatrici del gruppo P4P e distributrice autorizzata dei contenuti di Discovery Channel e Comedy Central, ricadono in questa categoria anche compagnie come l'emittente britannica BBC, che uti- Notiziario tecNico telecom italia - anno18 NumeroUNo2009 cooperazione tra internet Service Provider ed applicazioni peer-to-peer - Gianni canal, enrico marocco, Vinicio Vercellone tecnico in IETF dove verrà discussa una soluzione condivisa al problema. L’applicazione di queste tecniche presenta vari aspetti di beneficio per gli ISP. Oltre al vantaggio per i costi di gestione dell’infrastruttura di rete dato dalle prospettive di razionalizzazione del traffico P2P, offre anche un elemento di differenziazione, costituendo quindi un fattore determinante sia nella scelta del service provider da parte del cliente, che nella sua disponibilità a riconoscere un corrispettivo “premium” dato dall'effettivo aumento delle prestazioni. Un’altra promettente prospettiva è rappresentata dall’applicazione del modello strategico Service Exposure che, tramite l'esposizione controllata di funzionalità di rete (ad esempio infrastrutture di caching) e con l’apertura di informazioni di topologia ad aziende che intendono investire in nuovi paradigmi per la distribuzione di contenuti, apre la strada a modelli di business innovativi. lizza il software iPlayer per distribuire repliche dei propri programmi televisivi, e la stessa BitTorrent Inc., che offre la piattaforma commerciale di CDN BitTorrent DNA. Quest'ultima opportunità, tanto più promettente quanto più si diffonderà l'adozione di tecnologie P2P per il content delivery, rappresenta un ulteriore fronte di applicazione del modello strategico di Service Exposure che, con l'apertura di informazioni di topologia di rete ed accesso controllato a specifiche capability, permette di applicare nuovi modelli di business ad un contesto al momento poco adeguatamente esplorato. 8 Conclusioni Le tecniche di ottimizzazione del traffico P2P presentate in questo articolo – ed in particolare quelle basate su collaborazione tra applicazioni e ISP – hanno recentemente ricevuto notevole attenzione e sembrano promettenti, ma il loro successo dipenderà in primo luogo dal fatto che si riesca a proporre una situazione win-win da cui sia gli utenti che i service provider ne traggano un effettivo beneficio. La situazione attuale è incoraggiante: service provider come Comcast, Verizon, Telefonica, AT&T e Deutsche Telekom hanno investito una significativa quantità di risorse, coinvolgendo oltre al mondo industriale (Cisco Systems, Alcatel-Lucent, Juniper Networks, Microsoft) ed accademico (Yale University, Technishe Universitat Berlin), anche compagnie come BitTorrent Inc. e Pando Networks che hanno fatto del P2P il core del loro business. Telecom Italia ha finora contribuito attivamente, in particolare in ambito di standardizzazione, ponendosi alla guida insieme ad Alcatel-Lucent e Neustar di un forum A Notiziario tecNico telecom italia - anno18 NumeroUNo2009 CRONIMI ALTO: Application-Layer Traffic Optimization CDN: Content Delivery Network DCIA: Distributed Computing Industry Association FTTH: Fiber To The Home GNP: Global Network Positioning ICS: Internet Coordinate System IETF: Internet Engineering Task Force ISP: Internet Service Provider P2P: Peer-to-peer P4P: Provider Portal for P2P Applications RTT: Round Trip Time 19 cooperazione tra internet Service Provider ed applicazioni peer-to-peer - Gianni canal, enrico marocco, Vinicio Vercellone B IBLIOGRAFIA [1] A. Parker. “The true picture of peer-to-peer filesharing.” http://www.cachelogic.com [2] V. Aggarwal, A. Feldmann, and C. Scheidler. “Can ISPs and P2P systems co-operate for improved performance?” In ACM SIGCOMM Computer Communications Review (CCR), 37:3, pp. 29-40, July 2007 [3] F. Dabek, R. Cox, F. Kaashoek, and R. Morris. “Vivaldi: A Decentralized Network Coordinate System.” In Proc. of ACM SIGCOMM, August 2004 [4] D.R. Choffnes and F.E. Bustamante, “Taming the Torrent: A practical approach to reducing cross-ISP traffic in P2P systems.” In Proc. of ACM SIGCOMM 2008, 38(4), pp. 363-374, October 2008 [5] H. Xie, Y. R. Yang, A. Krishnamurthy, Y. Liu, and A. Silberschatz. “P4P: Provider Portal for Applications.” In ACM SIGCOMM Computer Communications Review (CCR), 38:4, pp. 351-362, October 2008 [6] K. P. Gummadi, R. J. Dunn, S. Saroiu, S. D. Gribble, H. M. Levy, and J. Zahorjan. “Measurement, Modeling, and Analysis of a Peer-to-Peer File-Sharing Workload.” In Proc. of the 19th ACM Symposium on Ope- rating Systems Principles (SOSP-19), October 2003 [7] S. Saroiu, K. P. Gummadi, R. J. Dunn, S. D. Gribble, and H. M. Levy. "An Analysis of Internet Content Delivery Systems." In Proc. of Fifth Symposium on Operating Systems Design and Implementation (OSDI), Dic. 2002 [8] T. S. E. Ng, and H. Zhang. “Predicting internet network distance with coordinates-based approaches.” In Proc. of IEEE INFOCOM, June 2002 [9] M. Costa, M. Castro, A. Rowstron, and P. Key. “PIC: Practical Internet coordinates for distance estimation.” In Proc. Of International Conference on Distributed Systems, Tokyo, Japan, March 2004 [10] B. Wong, A. Slivkins, and E. G. Sirer. “Meridian: A lightweight network location service without virtual coordinates.” In Proc. of ACM SIGCOMM, August 2005 [11] C. Griffiths, J. Livingood, and R. Woundy. “Comcast's ISP Experiences In a Recent P4P Technical Trial.” Internet Draft (Work in Progress), http://tools.ietf.org/id/draft-livingood-woundy-p4p-experiences [email protected] [email protected] [email protected] 20 Notiziario tecNico telecom italia - anno18 NumeroUNo2009 cooperazione tra internet Service Provider ed applicazioni peer-to-peer - Gianni canal, enrico marocco, Vinicio Vercellone A UTORI Gianni canal enrico marocco Vinicio Vercellone laureato in Scienze dell’Informazione, in Telecom Italia dal 1992. Dal 1995 si è occupato di evoluzione dell’Intelligenza in rete, applicando le emergenti tecnologie IT al contesto di integrazione Internet/Telecom. Tra il 2000 e il 2004 è stato rappresentante Telecom Italia in SIP Forum e pioniere della tecnologia SIP, coordinando il progetto di sviluppo in partnership con Italtel della soluzione pre-IMS per servizi voce su rete broadband (oggi Alice Voce). Dal 2003 è responsabile di una struttura di innovazione presso Telecom Italia Lab, occupandosi di Service Layer Architecture con la responsabilità dell’adozione della SOA in ambito Network. Dal 2007 ha la responsabilità operativa del progetto Service Exposure orientato all’ingegnerizzazione di un’infrastruttura di intermediazione tra le funzionalità di rete e le terze parti. È inoltre autore di numerosi articoli su tematiche di Network Intelligence ■ laureato in Informatica, entra in Telecom Italia nel 2003, prendendo parte da subito a progetti di sviluppo e messa in campo della prima rete SIP di Telecom Italia. Dal 2005 è coinvolto in attività di ricerca su tecnologie di comunicazione peer-to-peer; guida il progetto open-source SIPDHT e contribuisce a varie attività di standardizzazione in IETF, in particolare su tematiche legate a SIP e P2PSIP. Dal 2008, sempre in IETF, ricopre la carica di Chair del working group Application-Layer Traffic Optimization (ALTO) ■ laureato in Ingegneria Elettronica, nel 1984 è entrato in Azienda. Da allora opera nel settore innovazione di Telecom Italia, dove ha inizialmente collaborato a progetti di ricerca sullo sviluppo della tecnica ATM. In seguito ha contribuito a numerose attività riguardanti l'innovazione nel settore del networking IP ed MPLS e nell’offerta di servizi di rete. In questi ambiti è coautore di diverse domande di brevetto. Dal 1997 al 2000 è stato anche docente presso il Politecnico di Torino. Attualmente svolge la sua attività nell'area Broadband Network Services Innovation, occupandosi di evoluzione delle architetture di rete IP e partecipando al progetto europeo FP7 4WARD “Future Internet” ■ Notiziario tecNico telecom italia - anno18 NumeroUNo2009 21