E-Tourism:
Le nuove tecnologie in rete per il
sostegno al sistema turistico nazionale
SERVIZI
I
Donato Ettore, Giovanni Gasbarrone, Laurent-Walter Goix
l turismo rappresenta una fonte primaria di ricchezza per il nostro Paese,
contribuendo con il 12% come seconda voce al PIL nazionale.
Il mercato del turismo culturale sta evolvendo verso una dimensione di un
completo soddisfacimento dei bisogni del turista, valorizzando da un lato la
centralità dell’aspetto culturale all’interno di un’esperienza di viaggio a 360°
più ampia e dall’altro una maggiore autonomia del turista nella scelta del proprio
“percorso di vacanza”.
Il turista mostra infatti una crescente esigenza di svolgere un ruolo attivo e
partecipativo nell’esperienza turistica, integrando i contenuti culturali della visita con
i contenuti personali auto-generati e condividendoli con la “comunità turistica”.
Telecom Italia ha predisposto un’offerta di E-Tourism per supportare i propri clienti,
Istituzioni pubbliche e operatori del settore, nell’implementazione di nuovi servizi per
la promozione turistica attraverso tecnologie innovative web e mobile.
1
Introduzione
Nell’ambito della riorganizzazione dell’ETourism, il posizionamento di Telecom Italia
è quello di abilitare un sistema fortemente innovativo, efficiente ed integrato di infrastrutture e servizi in grado di generare impatti
22
positivi su tutti gli stakeholder del comparto
turistico; il tutto grazie ad una piattaforma
tecnologica Net Centric basata sulla Next
Generation Network (NGN) (figura 1), che
garantisca una forte interoperabilità tra i diversi attori dell’ecosistema, centralizzando e
valorizzando i diversi contenuti multimediali
NotIZIaRIo tEcNIco tElEcom ItalIa - anno18 NumeroUNo2009
E-tourism - le nuove tecnologie in rete per il sostegno al sistema turistico nazionale - Donato Ettore, Giovanni Gasbarrone, laurent-Walter Goix
del turismo e rendendoli accessibili in ottica
di multicanalità.
In particolare,Telecom Italia mira a sviluppare soluzioni ICT evolute capaci di innovare
tutte le diverse fasi in cui si articola la “travel-experience” vissuta dal turista. In questa
“vision” spicca la guida interattiva in mobilità
di Telecom Italia, un Cicerone Virtuale che
guida il turista nei suoi percorsi culturali offrendo suggerimenti sui siti da visitare e consentendo lo scambio di esperienze di viaggio
all’interno di “community” di turisti grazie alla
condivisione di informazioni. Immaginiamo
come, autorizzando la localizzazione della
propria posizione effettuata sul terminale, il
turista sia avvisato sul telefonino dell’esistenza di un circuito guidato nelle vicinanze
per la visita a luoghi di interesse turistico.
L’offerta della possibilità di ricevere informazioni nel percorso turistico avviene con un
messaggio di alerting multimediale (MMS o
web), che potrebbe, per esempio, provenire
da un apparato con radio Bluetooth posto nei
siti turistici, e che tramite un link nel messaggio informativo consenta l’accesso all’applicazione ICT di E-Tourism. Aderendo al
servizio via cellulare, si accede così ad una
mappa dedicata con l’indicazione del per-
Figura 1 - la piattaforma Net centric per l`E-tourism
corso di visita e dei vari monumenti lungo il
percorso. Man mano che si sposta, il turista
viene poi seguito sulla mappa georeferenziata, che evidenzia le prossime tappe del
circuito e la strada ancora da percorrere. In
ambienti come musei e siti archeologici questo avviene in coperture indoor WiFi o con
radio Bluetooth che inviano messaggi multimediali informativi dei servizi offerti al turista.
2
NotIZIaRIo tEcNIco tElEcom ItalIa - anno18 NumeroUNo2009
La piattaforma Telecom Italia per
l’E-Tourism
La vision di Telecom Italia che guida l’ideazione dei servizi ICT per il turismo è quindi
tesa a supportare la Pubblica Amministrazione nell’aggregazione e sviluppo dell’offerta per il Turismo a beneficio di tutti gli
“end-user” facendo leva su strumenti, mobili
o fissi, di gestione dei contenuti turistici multimediali erogati dalla piattaforma di E-Tourism presso i Data Center di Telecom Italia
distribuiti sul territorio.
23
E-tourism - le nuove tecnologie in rete per il sostegno al sistema turistico nazionale - Donato Ettore, Giovanni Gasbarrone, laurent-Walter Goix
Con tali premesse i principali elementi distintivi dell’approccio Telecom Italia sono: lo
sviluppo di un modello di aggregazione dell’offerta su base locale, ovvero “sotto il patrocinio” delle Pubbliche Amministrazioni
competenti; il coinvolgimento della PA per la
sponsorship del modello e coinvolgimento
degli attori business attivi sulla catena del
valore; la raccolta e la fornitura di contenuti
(es. informazioni per la valorizzazione patrimonio artistico); un forte leverage su device
portatili ad uso del cliente finale e su soluzioni infrastrutturali fondate sugli asset Telecom (connettività, data center, Telco
Capabilities); l’ipotesi di business subordinata alla costituzione di un modello collaborativo di integrazione pubblico-privato su
base locale.
2.1
Caratteristiche principali della
piattaforma
La piattaforma di E-Tourism risiede presso
gli Internet Data Center di Telecom Italia, ed
in particolare si basa su un’infrastruttura di
servizio virtualizzata, nella logica che contraddistingue tutte le architetture di servizio,
ovvero l’Utility Computing
Il passaggio da un’infrastruttura tradizionale (un server per applicazione) verso
quella di tipo Utility Computing (una sola
macchina con capacità computazionale dinamicamente allocata alle varie applicazioni)
consente grandi vantaggi dal punto di vista
della scalabilità delle performance e della disponibilità del servizio. Con le “infrastrutture
virtuali” presenti presso i Data Center e gli
Internet Data Center vengono rese disponibili le risorse elaborative necessarie al funzionamento delle applicazioni in ogni
momento ed in maniera automatica e trasparente. Tale approccio consente di gestire al
meglio la capacità elaborativa in caso di:
• momenti imprevisti caratterizzati da picchi
molto concentrati di accessi;
24
• domanda di capacità computazionale di
tipo stagionale, sia nell’arco di tempo di
una giornata es.: eventi turistici spot sia per
periodi più lunghi , es.: eventi settimanali
(fiere, Carnevali etc…).
L’approccio sopra descritto completa con
maggiore efficacia, rispetto alle infrastrutture IT dedicate, l’approccio A.S.P., in una
logica erogativa che in Telecom Italia
prende il nome di Net Computing.
Il nucleo centrale della piattaforma di ETourism è un sistema di gestione dei contenuti (Content Management System)
finalizzato per le esigenze del Clienti Business di Telecom Italia che hanno bisogno
di uno strumento di diffusione multicanale
ed in sicurezza dei propri contenuti descrittivi dei Punti di Interesse (POI, Point of Interest). Pertanto possono essere ospitati
contenuti come testi, ipertesti HTML, audio
e video, e vengono fruiti secondo le modalità con cui l'applicazione presenta i contenuti.
Sulla base dei POI inseriti all’interno
della piattaforma è possibile eseguire delle
ricerche sulla base delle categorie in cui
essi sono classificati (arte, ristoranti, trasporti, alloggi, eventi) e selezionando dei
criteri di ricerca predefiniti (e.g., tipo di cucina o prezzo del ristorante; tipo alloggio o
stelle; tipo di trasporto; data dell’evento),
consentendo all’utente una rapida valutazione di ciò che può trovare di utile/interessante intorno a se.
I POI possono essere di natura istituzionale, ovvero quelli presenti in maniera nativa nella cartografia utilizzata dalla
piattaforma, oppure possono essere individuati dal Top Client stesso ed inseriti all’interno della piattaforma subito dopo la
stipula del contratto.
Ai POI proposti dal cliente è possibile associare dei contenuti multimediali (testo,
audio, video) che il turista potrà visualizzare per ricevere degli approfondimenti in
merito a ciò che sta visitando.
NotIZIaRIo tEcNIco tElEcom ItalIa - anno18 NumeroUNo2009
E-tourism - le nuove tecnologie in rete per il sostegno al sistema turistico nazionale - Donato Ettore, Giovanni Gasbarrone, laurent-Walter Goix
2.2
XMPP gateway. Quindi il server IVR si presenta alla componente di trasporto come
un client XMPP.
• Telco Service – piattaforma TI che espone
tramite interfacce standardizzate servizi di
rete.
• L’XMPP gateway crea un’istanza di XMPP
client per ogni sessione voce e genera i
messaggi XMPP corrispondenti alle richieste vocali dell’utente e traduce in VoiceXML le risposte provenienti dalla
componente prima descritta. Il gateway si
occupa anche di filtrare (generando appositi criteri di ricerca) tutti i contenuti che non
possono essere riprodotti tramite terminale
vocale (ad es. i contenuti video).
• Il Front End il quale si occupa di realizzare
l’adattamento dei servizi alle capability dei
terminali.
• La Web Application che implementa una
console di gestione per ingestion dei contenuti istituzionali e la creazione/abilitazione delle utenze.
• Il Context Broker e relativo Location Provider, che fornisce gli strumenti per la localizzazione e la contestualizzazione degli
utenti.
• Teamlife, la piattaforma dedicata alla gestione e condivisione dei contenuti multimediali generati dagli utenti (foto, video,
ecc).
In relazione alle funzionalità del servizio Cicerone Virtuale, l’architettura di riferimento
della relativa piattaforma è la seguente (figura 2); i software infrastrutturali sono Open
Source, a meno di Loquendo e GIS Engine.
Componenti logiche della
piattaforma
La piattaforma E-Tourism mette a disposizione attraverso un’infrastruttura unitaria e
con alti livelli di sicurezza, strumenti potenti
e di facile uso per l’informazione e l’interazione, tra il turista, gli operatori di settore e
la Pubblica Amministrazione. La piattaforma
di Telecom Italia per l’E-Tourism si articola
sulle seguenti componenti logiche:
• il Service Engine è un sistema server che
si occupa di implementare le logiche dei
servizi specifici della piattaforma, in contrapposizione ad una controparte di trasporto, basata su un sistema di
messaggistica istantanea che fornisce i
servizi. La struttura architetturale della piattaforma di messaggistica istantanea per i
servizi è di tipo SOA (Service Oriented Architecture).
• il CMS (Content Management System) è il
sistema di gestione dei contenuti con le seguenti modalità di accesso:
○ Web client - per consentire la gestione
del sistema e dei contenuti;
○ Web Services interface - per accedere
ai contenuti e per esporre alle applicazioni remote funzionalità quali gestione
utenti, regole, workflow…;
○ FTP - per effettuare in maniera semplice aggiunte di contenuti o gestione da
remoto.
• Content Brokering – Convoglia le richieste di servizio che arrivano dalla XMPP
server verso il CMS. È il sistema server (inteso sia nell’accezione software che hardware) che si occupa di implementare le
logiche dei servizi specifici della piattaforma.
• Tecnologie di Interactive Voice Response (IVR) per l’accesso vocale al sistema. Per uniformare l’accesso alla
piattaforma del sistema IVR rispetto agli
altri client, il server vocale si interfaccia con
la componente di mesaggistica tramite un
2.3
NotIZIaRIo tEcNIco tElEcom ItalIa - anno18 NumeroUNo2009
Funzionalità e servizi della
piattaforma
La piattaforma si configura come un centro servizi evoluto e l’utilizzo dei Web Services ne esalta la flessibilità e quindi la
possibilità di implementare rapidamente soluzioni diverse, in funzione delle esigenze
25
E-tourism - le nuove tecnologie in rete per il sostegno al sistema turistico nazionale - Donato Ettore, Giovanni Gasbarrone, laurent-Walter Goix
Figura 2 - architettura della piattaforma di E-tourism
dei Clienti istituzioni o imprese attraverso diverse modalità di erogazione del servizio al
turista singolo, comitive, o alle guide.
I servizi erogati si basano sulle seguenti
funzionalità :
• Iscrizione e Profilazione: preliminare
all’utilizzo dei servizi del sistema è l’iscrizione. La procedura, da eseguirsi on-line
anche su portale Internet o su sistema vocale, prevede la scelta di un username e
di una password e la compilazione di
un’anagrafica utente. Il sistema consente
inoltre di effettuare alcune scelte di preferenza circa i contenuti da erogare. I dati di
profilazione vengono utilizzati per proporre
al turista dei percorsi a tema confezionati
dalla piattaforma in funzione delle preferenze espresse ma anche per proporre
26
servizi di advertising mirato da parte dei
soggetti privati che partecipano al modello.
• Login: accesso tramite credenziali per
l’autenticazione al sistema.
• Navigazione Mappe: è presentata all’utente una mappa della zona in cui si
trova. Sovrapposti alla mappa sono indicati i Point of Interest (POI) rispondenti ai
criteri eventualmente selezionati in fase di
profilazione. È possibile accedere ai contenuti legati ai POI. Le mappe presentate
possono riferirsi ad un’area estesa, nel
caso in cui l’utente richieda la mappa relativa all’area di interesse al centro servizi,
che fornisce la mappa, la posizione dell’utente e la lista dei POI e dei contenuti
relativi, visualizzati dalla guida. Il turista
naviga la mappa scorrendola. È possibile
l’implementazione di un vero e proprio
NotIZIaRIo tEcNIco tElEcom ItalIa - anno18 NumeroUNo2009
E-tourism - le nuove tecnologie in rete per il sostegno al sistema turistico nazionale - Donato Ettore, Giovanni Gasbarrone, laurent-Walter Goix
•
•
•
•
“navigatore personale” guida tra un POI e
l’altro.
Localizzazione/Contestualizzazione. attivabile attraverso varie tecnologie (GPS,
WiFi, NIMBLE, RFID, Bluetooth), scelte in
base a condizioni imposte dall’utente, alle
caratteristiche del terminale e alla condizione e disponibilità delle risorse.
Cartografia: il sistema fornisce le mappe
dell’area in cui si trova l’utente. Tali mappe
non si limitano necessariamente alla tradizionale cartografia stradale. In contesti indoor il sistema può fornire mappe
tematiche di aree interne (es. musei, palazzi, chiese, aree archeologiche). Il passaggio tra la cartografia stradale e quella
tematica può essere sia manuale (legato
alla selezione di un POI) sia automatica.
Itinerari: il sistema può fornire una lista di
itinerari da seguire (a piedi o con mezzi di
trasporto) in funzione della posizione geografica dell’utente. La funzionalità ammette
due livelli di implementazione:
○ l’itinerario è presentato in forma testuale
ed i singoli item (POI lungo l’itinerario,
svolte, strade) sono georeferenziati per
poterli visualizzare sulla mappa.
L’utente seleziona gli item mano mano
che avanza lungo l’itinerario;
○ l’intero itinerario è georiferito. L’avanzamento nell’itinerario è coadiuvato dal sistema di localizzazione compatibilmente con la precisione caratterizzante
la tecnologia impiegata.
Community. Chat e messaging: il sistema implementa il concetto di community, ovvero un insieme di utenti collegati
da relazioni di reciproca conoscenza. Ad
ogni utente è associata una lista degli
utenti amici ed è possibile effettuare una ricerca degli amici in base alla vicinanza,
oppure ricevere una notifica quando un
utente si avvicina ad un amico. Principali
funzioni: aggiunta di un amico, invio di un
Instant Message, ricerca della posizione di
un amico, ricerca degli amici in base alla
posizione.
2.4
NotIZIaRIo tEcNIco tElEcom ItalIa - anno18 NumeroUNo2009
Verso l’E-Tourism 2.0
La sindrome del Web 2.0 arriva anche
nel turismo. Quanti sono gli utenti turisti
“fai da te” che ora pianificano il loro viaggio
su Internet guardando foto su Flickr, descrizioni su Wikipedia, recenzioni su TripAdvisor e comprando su Expedia o
Venere?
I turisti vogliono condividere le loro
esperienze pregresse, e gli altri ne sono
avidi a loro volta per ottenere consigli,
molte volte più validi o aggiornati delle
guide tradizionali stesse.
Allo stesso tempo, la frammentazione di
tale esperienza è alta e il turista spesso
non viene seguito durante la fase esperienziale del viaggio, bensì tipicamente
solo prima (per pianificare) e dopo (per documentare e condividere media e commenti).
In parallelo a questo trend evolutivo notiamo, come anticipato prima, l’evoluzione
rapida del mondo degli “smart devices”,
fornendo ampie funzionalità e tecnologie
abilitanti (grandi display, banda larga mobile, GPS, ecc) e spesso terminali prediletti
per servizi “context-aware”, a cominciare
dai famosi Location-Based Services.
L’evoluzione della piattaforma di E-Tourism in veste 2.0 intende sfruttare entrambi
questi trend evolutivi e fa leva su alcuni
asset di Telecom Italia (e.g. contesto, location, device e network capability), prevalentemente usando la Context Awareness
come broker di informazioni e contenuti
dell’utente, che si possono ulteriormente
integrare con community esistenti web 2.0
(e.g. Flickr, YouTube, Facebook).
In particolare, la piattaforma si sta arricchendo di funzionalità di condivisione di
contenuti user-generated di tipo multimediali (e.g. foto o video) e/o testuali (e.g. voti
e recenzioni di Punti di Interesse) forniti
dai turisti stessi per documentare e condividere la loro esperienza di viaggio.
27
E-tourism - le nuove tecnologie in rete per il sostegno al sistema turistico nazionale - Donato Ettore, Giovanni Gasbarrone, laurent-Walter Goix
3
Approfondimenti tecnici:
Multimodal Framework &
Context-Awareness
3.1
Il Multimodal Framework
La piattaforma di E-Tourism si presenta
quindi come una soluzione innovativa non
solo in termini di contenuti e funzionalità, ma
anche da un punto di vista strettamente tecnico per quanto concerne l’accesso ai servizi, il rendering sui terminali e la gestione
delle risorse dei dispositivi.
Il problema principale nella realizzazione
di una piattaforma di servizi per terminali mobili, infatti, si concretizza nella necessità di
garantire l’accesso attraverso dispositivi
molto eterogenei, con caratteristiche tecnologiche e funzionali notevolmente diverse tra
loro. La soluzione più promettente a questo
spinoso problema sembra essere la navigazione WEB, la quale attraverso i browser installati sui dispositivi permette l’accesso alle
informazioni ed alle funzionalità gestite in
rete. Tuttavia, tale soluzione è fortemente
soggetta a due vincoli:
• La frammentazione dei browser
Si riferisce al fatto che i modelli attualmente utilizzati sono caratterizzati da browser
Figura 3 - Funzionalita` Vs
disponibilita` di modelli
28
differenti, i quali, a seconda delle scelte fatte
dalle manifatturiere, supportano differenti
standard, diversi protocolli e tecnologie.
Come si evidenzia nella figura 3, infatti, si
passa da browser molto semplici i quali supportano la sola codifica HTML delle pagine
fino a browser molto evoluti caratterizzati dal
supporto alla tecnologia Flash di Adobe, attraverso una miriade di situazioni intermedie
che possono contemplare il supporto ai fogli
di stile, diverse API javascript, l’interazione
asincrona (AJAX) ed altro ancora, come per
esempio il supporto di tag proprietari (vedi
per esempio l’iPhone di Apple).
Questa differenziazione pone dei limiti notevoli, in quanto la progettazione di servizi
WEB accessibili da tutti i terminali richiederebbe l’imposizione di limitazioni nell’uso di
soluzioni tecnologiche più avanzate che penalizzerebbero troppo i servizi quando acceduti da dispositivi più nuovi e performanti.
Viceversa, l’ottimizzazione dei servizi e delle
funzionalità con l’ausilio di soluzioni più innovative comprometterebbe la possibilità di
accedere ai servizi attraverso un terminale
di fascia inferiore.
L’applicazione della soluzione sopra descritta al contesto turistico ha determinato la
nascita della piattaforma Cicerone Virtuale,
la quale si contraddistingue di due parti fondamentali: il front end, basato su MMF il
quale rappresenta il punto di accesso ai servizi, ed il backend, nel quale sono implementati tutti i servizi base che caratterizzano
la suite.
Il risultato è un’applicazione la quale
si presenta differentemente in funzione
del cellulare che viene utilizzato e la
quale è capace, nonostante sia una applicazione web, di utilizzare i ricevitori
GPS a bordo dei terminali.
• Il limite dei browser ad accedere a
tecnologie residenti sui dispositivi.
Questo secondo punto riguarda, invece, i limiti che i browser hanno quando
sono integrati nei terminali mobili. Infatti,
se è vero che i browser dei terminali di
NotIZIaRIo tEcNIco tElEcom ItalIa - anno18 NumeroUNo2009
E-tourism - le nuove tecnologie in rete per il sostegno al sistema turistico nazionale - Donato Ettore, Giovanni Gasbarrone, laurent-Walter Goix
fascia più alta consentono lo sviluppo di funzionalità avanzate in termini di interazione
con i server e user experience, ci sono tecnologie ed informazioni locali che non sono
accessibili da una semplice pagina WEB.
L’esempio più indicativo è l’uso del ricevitore
GPS, indispensabile nella realizzazione di
servizi contestualizzati come quelli turistici
ma non accessibile da una pagina WEB o da
uno script Flash. La possibilità di accedere
alle informazioni di latitudine e longitudine,
consente, infatti, la contestualizzazione automatica delle informazioni turistiche accanto
a servizi più avanzati come la gestione di
community nello spazio con ricerca degli
amici vicin i o notifiche asincrone di vicinanza a punti di interesse.
Per far fronte a questi problemi la soluzione di Telecom Italia, realizzata nei laboratori TILab, è stata costruita a partire da una
soluzione tecnica denominata Multimodal
Framework. Tale soluzione è caratterizzata
da due principali componenti:
○ MMF Plug-in: atto ad estendere le capability dei browser;
○ MMF Lib: framework di sviluppo della
componente applicativa lato server.
3.1.1
Verso l'advanced web browsing:
MMF Plug-in
La componente MMFPlugin nasce con lo
scopo di mettere a disposizione delle tecnologie WEB, quindi delle logiche di servizio remote, funzionalità residenti sui dispositivi.
La soluzione implementa una componente
plug-in modulare che si caratterizza come un
ponte tra le pagine WEB e le applicazioni native. L’architettura, descritta in figura 4, è caratterizzata da tre livelli principali e permette
di configurare il modulo in diverse configurazioni. In particolare, nella configurazione
Plug-in, il modulo estende il browser aggiungendo nuove funzionalità. I moduli GPS,
bluetooth, WiFi e CellID vengono utilizzati
per accedere ad informazioni di contesto e di localizzazione indoor.
Figura 4 - architettura
del mmF Plugin
NotIZIaRIo tEcNIco tElEcom ItalIa - anno18 NumeroUNo2009
29
E-tourism - le nuove tecnologie in rete per il sostegno al sistema turistico nazionale - Donato Ettore, Giovanni Gasbarrone, laurent-Walter Goix
Il modulo Gallery e Camera Control permette
l’uso della fotocamera del terminale e l’accesso ai dati multimediali per abilitare gli
scenari di servizio di condivisione dei contenuti. Le tecnologie vocali vengono, invece,
governate dai moduli TTS e ASR/DSR i quali
permettono la realizzazione di applicazioni
WEB ad interazione multimodale.
Vista l’importanza di estendere le capability dei browser nell’ottica di costruire servizi
mobili, i maggiori operatori - AT&T, T-Mobile,
Telecom Italia, Telenor, Telefonica, Orange e
Vodafone - hanno annunciato nel corso del
2008 una nuova iniziativa denominata
BONDI. L’iniziativa è avviata da OMTP
(Open Mobile Terminal Platform) un consolidato consorzio internazionale formato da
operatori, software/platform provider e manifatturiere sino ad oggi impegnato sopratutto nella definizione di requisiti per terminali
mobili e de-frammentazione degli standard
per facilitarne l’impiego industriale.
BONDI ha l’obiettivo di realizzare un ambiente software per accesso sicuro alle funzionalità del terminale (es. fotocamera, contatti,
SMS, telefonia, ecc.) tramite tecnologie
web/ajax per facilitare lo sviluppo di applicazioni evolute, basate su browser e wigdet,
aprendo alle “community” di sviluppatori. Il
progetto prevede anche l’avvio di una nuova
community per sviluppo “Open Source” di una
Reference Design Implementation.
Nell’ambito di tale progetto, Telecom Italia
partecipa come co-chair del coordinamento
del progetto e contribuisce alla realizzazione
di una Reference Implementation open
source, la quale integrerà componenti dell’MMFPlugin.
3.1.2
Gestione dei profili e della scalabilità
dei servizi: MMF Lib
La soluzione MMFLib nasce con l’idea di
creare uno strumento attraverso il quale uno
sviluppatore di applicazioni WEB per terminali mobili possa gestire ad alto livello le ca-
30
pability dei diversi modelli e, accanto a queste, la presenza o meno delle capability aggiunte dalla componente MMF Plug-in.
La libreria MMF consente, quindi, di adattare in maniera trasparente l’elaborazione
delle informazioni e la successiva fase di
rendering alle caratteristiche fisiche e tecnologiche dei terminali su cui è in esecuzione
il client: il device viene caratterizzato a partire dalla definizione marca/modello per giungere sino a dati di più basso livello, come il
supporto alle tecnologie AJAX, le dimensioni
dello schermo, i codec audio/video supportati, il supporto dei protocolli di comunicazione supportati da Flash.
La Libreria MMF è in grado di gestire la
parte plugin presente sui terminali in maniera
completa e trasparente. In particolare le funzionalità svolte sono:
○ verifica della disponibilità di una versione del plugin compatibile con il terminale collegato;
○ verifica delle presenza del plugin;
○ gestione del processo di installazione;
○ attivazione del plugin;
○ gestione e controllo dei messaggi e direttive di istruzione;
○ elaborazione dei risultati.
3.2
E-Tourism 2.0
Le tecnologie abilitanti per l’E-Tourism 2.0
sono offerti dalla Context Awareness, che fa
leva sul contesto dell’utente (e.g. la sua posizione, i suoi amici) e sul ruolo del turista
sia come fornitore di informazioni (contenuti,
consigli, ecc) che allo stesso tempo fruitore
in mobilità.
Le principali componenti evolutive sono
Teamlife, per la gestione e la condivisione di
foto e video contestualizzati tra utenti e
Recs, per la gestione di consigli personali e
personalizzati su ristoranti, B&B, eventi, monumenti… Queste componenti sfruttano la
piattaforma di Context-Awareness come
NotIZIaRIo tEcNIco tElEcom ItalIa - anno18 NumeroUNo2009
E-tourism - le nuove tecnologie in rete per il sostegno al sistema turistico nazionale - Donato Ettore, Giovanni Gasbarrone, laurent-Walter Goix
enabler per la raccolta e l’elaborazione dei
dati di contesto [1].
La figura 5 illustra l’architettura di riferimento della piattaforma di Context-Awareness e l’integrazione dei servizi Recs e
Teamlife, evidenziando i flussi di interazione
con I device mobili e I sistemi esterni.
3.2.1
Teamlife
TeamLife è un’applicazione context-aware
che consente ad un utente di condividere
media (foto, video, registrazioni audio) e file
(es. documenti testuali, presentazioni PowerPoint,…) sfruttando le potenzialità offerte
dalla conoscenza del suo contesto real-time:
quest’ultimo è utilizzato per taggare in modo
contestualizzato i contenuti da condividere.
L’applicazione si articola prevalentemente
in una componente server che fornisce sia
interfaccia programmatiche (API) che grafiche (portale web e mobile), per l’inserimento,
la gestione e la fruizione dei media.
NotIZIaRIo tEcNIco tElEcom ItalIa - anno18 NumeroUNo2009
Figura 5 - architettura della piattaforma di
context-awareness e dei servizi 2.0 teamlife e Recs
La homepage del portale TeamLife presenta al visitatore una serie di album virtuali,
tra cui ad esempio gli ultimi contenuti pubblicati o una selezione casuale di immagini.
Per ciascun contenuto è riportata la descrizione testuale inserita dall’utente al momento della pubblicazione, il nome
dell’autore, la data di pubblicazione, ma
anche statistiche quali il numero di visite e di
commenti.
Cliccando su un contenuto, si accede alla
schermata dei dettagli). La sezione di descrizione (sotto l’immagine) riporta il commento
inserito dall’utente al momento dell’upload,
assieme ad una serie di informazioni riguardo al contesto dell’utente all’atto della
registrazione del contenuto, come ad esempio il luogo (visualizzato tramite Google
Maps) ed i nomi degli amici presenti in quel
momento. La sezione delle informazioni sul
lato destro riporta tutti i tag associati all’og-
31
E-tourism - le nuove tecnologie in rete per il sostegno al sistema turistico nazionale - Donato Ettore, Giovanni Gasbarrone, laurent-Walter Goix
Machine tags
I machine tags sono delle tag “programmatiche” in
quanto intese prevalentemente per un uso da applicazione, che consente di dare un significato semantico ad una semplice tag libera, chierendone la
valenza. Chiamati anche triple-tags, sono costituite
da una tripletta di informazioni del tipo namespace,
predicato, valore nella sintassi <namespace>:<predicato>=<valore>.
Il namespace definisce una classe di significati alla
quale appartiene la tag (“geo”, “people”, “address”, ecc.), il predicato indica il nome della proprietà (“name”, “lat”, ecc) mentre il terzo attributo
ne indica il valore.
Questa funzionalità viene ampiamente usata dalla
piattaforma di contesto per discriminare I contenuti
sulla base delle singole dimensioni e valori del
contesto, ad esempio distinguendo tra le foto scattate a Venezia da quelle con il collega Venezia o
taggate semplicemente “Venezia” da un’utente per
un qualunque altro motivo. In particolare, la piattaforma di Context Awareness usa i seguenti namespace:
- geo per i tag riferiti a coordinate geografiche;
- address per i tag relativi all’indirizzo civico del
luogo dello scatto;
- place per caratterizzare il luogo (tipologia di
posto, nome);
- people per identificare gli amici vicini;
- poi per associare il contenuto ad un Punto di Interesse (POI).
getto, sia quelli inseriti dall’utente stesso (ad
esempio per associare il contenuto ad un
viaggio), che quelli associati al contesto
dell’utente, nella forma di machine tags, in
modo da poter discriminare meglio le varie
informazioni per tipologia (luogo, persone,
punti di interesse). È importante notare come
le informazioni di contesto (descrizione e
tag) vengano aggiunte automaticamente da
Teamlife tramite la piattaforma di ContextAwareness, discriminati per tipologia (namespace), e possono facilmente essere usate
come filtro, cliccando sull’apposita informazione di interesse.
32
Una delle caratteristiche principali del portale è infatti l’estrema semplificazione nella
ricerca dei contenuti, basato su un motore
centrale di selezione e quindi nativamente
disponibile a qualunque tipo di fruizione, ad
esempio grafica (visualizzazione web, ecc)
o programmatica (feed rss, ecc):
• i tag sono hypertext link che permettono di
selezionare e navigare con facilità i contenuti, in particolare sfruttando i tag di contesto come filtri (ad esempio per vedere le
foto scattate nello stesso luogo, nello
stesso Punto di Interesse (graffiti) o con la
stessa persona;
• gli album virtuali consentono la selezione in
base a vari filtri “statistici” (più visti, votati
meglio, ultimi caricati, ecc) e/o per autore,
inoltre, esiste anche una modalità di selezione grafica tramite “nuvola di tag” (tag
cloud) in cui le tag hanno dimensione proporzionale al numero di volte in cui sono
state associate ad un file multimediale.
3.2.2
Recs
RecS (Recommendation Services) è
un’applicazione context-based che permette
di ricevere raccomandazioni e informazioni
(ad es. ristoranti, monumenti, punti di interesse, …):
• basate sui suggerimenti e i voti di altri
utenti: senza alcun forma di adesione, ma
semplicemente votando, si entra a far
parte di un “social network” di utenti che
votano e danno suggerimenti agli altri (in
modo anonimo o meno), creando un
micro-cosmo di “passa-parola virtuale”;
• contestualizzate, cioè calate sulla situazione in cui l’utente si trova in un preciso
momento, o in alternativa, de-contestualizzate, ad esempio per impostare a mano la
location di cui si desidera ottenere informazioni/raccomandazioni.
La principale funzionalità del Recs è
quella per gli utenti di poter votare e commentare Punti di Interesse (POI – o item) di
NotIZIaRIo tEcNIco tElEcom ItalIa - anno18 NumeroUNo2009
E-tourism - le nuove tecnologie in rete per il sostegno al sistema turistico nazionale - Donato Ettore, Giovanni Gasbarrone, laurent-Walter Goix
varie categorie (e.g. monumenti, ristoranti),
anche in mobilità. Il duale di questa funzionalità è quella di suggerire all’utente dei
Punti di Interesse (POI) in base alla categoria, alle informazioni di contesto disponibili e
ai voti forniti dagli altri utenti. I POI suggeriti
possono essere ordinati in base alla distanza
dall’utente, oppure ai voti dati dagli utenti.
Oltre al voto “consigliato” e ai relativi commenti, per ogni POI viene fornito un’insieme
di dettagli per raggiungerlo o contattarlo.
Il Recs è costituito da un applicazione server strutturata in 3 parti principali: l’interfaccia web mobile/desktop, il motore di
raccomandazione e di gestione dei consigli,
e il gestore dei Punti di Interesse (POI Provider).
La figura 6 mostra alcune schermate/funzionalità dell’interfaccia mobile del RecS (a
partire dalla pagina di output dei POI della
categoria di interesse, in senso orario):
○ dettagli: indirizzo, click-to-call, metodi di
pagamento, giorno di chiusura, ecc.;
○ votazione: si vota assegnando all’item,
a seconda del gradimento, da 0 a 5 stellette, e spiegandone il motivo spuntando uno dei tag indicati e/o con un
commento testuale;
○ mappa: si visualizza una mappa centrata intorno al punto di interesse, con
la possibilità di variare il livello di zoom;
○ why: è possibile sapere il perché un
item è stato raccomandato con un certo
rating (motivi).
Il motore di raccomandazione sfrutta internamente il POI Provider, un sistema di gestione dei Punti di Interesse avanzato che
permette di aggregare POI e relativi contenuti provenienti da diverse sorgenti (content
providers, e.g. Google, MapPoint, UbiEst).
Figura 6 - alcune schermate del RecS: lista di
item, dettagli dell`item, votazione, mappa, why
NotIZIaRIo tEcNIco tElEcom ItalIa - anno18 NumeroUNo2009
33
E-tourism - le nuove tecnologie in rete per il sostegno al sistema turistico nazionale - Donato Ettore, Giovanni Gasbarrone, laurent-Walter Goix
La sua modularità consente di integrare facilmente POI provenienti da amministrazioni
pubbliche o fornitori locali, e.g. per eventi,
audioguide, o inseriti direttamente dagli
utenti stessi, previa moderazione.
È importante evidenziare inoltre la flessibilità del Recs riguardo alle tecniche di raccomandazioni utilizzate, in grado di gestire
diversi algoritmi a seconda delle necessità di
utilizzo del sistema da pate degli utenti. È ovviamente possibile diporre come votazione
consigliata di una media generica dei voti
dati dagli altri utenti, all’immagine della maggioranza dei portali web di riferimento, ma il
Recs fornisce in particolare altri 2 algoritmi
avanzati che consentono una calibrazione
del consiglio ben più fedele ai gusti dell’utente:
○ Collaborative Filtering, ossia che per
ogni item da raccomandare sfrutta i voti
dati dagli utenti della community con
profilo “simile”, determinato dai voti simili dati in comune ad altri item.
○ Trust Network,basato su indicazioni
esplicite di fiducia nei confronti dei propri contatti. Per ogni contatto l’utente
può definire categoria e grado di fiducia,
e riceverà in cambio raccomandazioni
da chi si fida di più.
○ Group Recommendation: in base al
gruppo di riferimento nel quale si trova
l’utente (con amici ecc), la raccomandazione verrà calcolata sul gruppo intero
mediando le preferenze dei singoli.
Infine, dato un item qualsiasi del RecS,
ogni utente può “appendere” ad esso un
contenuto multimediale (testo, foto, audio e
video,…), inteso proprio come un “graffito”
visibile a tutti coloro che visiteranno successivamente quell’item; come ad esempio i
clienti di un pub o di un ristorante che lasciano una foto per raccomandare gli aperitivi della casa, o i cittadini che lasciano
“appeso” ad un item di ufficio pubblico o una
zona una situazione rilevata…Tali graffiti
multimediali vengono salvati e recuperati da
34
Teamlife per maggior interazioni con le altre
applicazioni turistiche, sfruttando i machine
tag specifici dei POI come filtro.
Le funzionalità del Recs possono prestarsi
anche idealmente a scenari di tipo Push, in
cui a secondo del contesto dell’utente viene
inviato un SMS o MMS di notifica della presenza di un POI consigliato nelle vicinanze,
con accesso alla relativa scheda di dettaglio
o ai graffiti associati come ulteriore incentivo.
4
I servizi per il turismo
Facendo leva su tecnologie innovative che
favoriscono la convergenza ICT, Telecom
Italia presenta quindi una nuova offerta per
il settore turismo allo scopo di contribuire a
rafforzarne la competitività. Il sostegno alle
Pubbliche Amministrazioni ed agli operatori
che partecipano al sistema turistico nazionale, è uno degli obiettivi che Telecom Italia
si pone e per i quali mette a disposizione tecnologie e modelli avanzati di fruizione e partecipazione.
Le Regioni, le Provincie, le Città d’Arte, i
gestori di percorsi archeologici, culturali ed
enogastronomici, i consorzi di Comuni ed
Enti, i Parchi hanno da oggi a disposizione
una piattaforma integrata in rete che utilizza
le tecnologie innovative per introdurre specifiche soluzioni finalizzate a:
• fidelizzare il turista;
• destagionalizzare i flussi turistici;
• prolungare la permanenza del turista;
• potenziare la capacità delle Pubbliche Amministrazioni di dialogare e di “creare sistema” con turisti, cittadini, operatori di
business, organi centrali.
L’azione di promozione delle istituzioni è
attualmente focalizzata nel fornire al turista
strumenti che diano uno stimolo a visitare
luoghi caratteristici per cultura e con bellezze
naturalistiche notevoli ma poco conosciute.
NotIZIaRIo tEcNIco tElEcom ItalIa - anno18 NumeroUNo2009
E-tourism - le nuove tecnologie in rete per il sostegno al sistema turistico nazionale - Donato Ettore, Giovanni Gasbarrone, laurent-Walter Goix
L’obiettivo è quello di valorizzare gli elementi
territoriali, culturali e ambientali comuni, con
particolare riferimento agli elementi naturalistici e paesaggistici più significativi. Questo
consente di mettere in moto un circolo “virtuoso” di informazioni che darà luogo ad uno
scambio di esperienze e forme di cooperazione tra gli attori locali con la creazione di
un flusso di informazioni e relazioni che accrescerà la consapevolezza di essere parte
di un sistema turistico integrato con strumenti di assistenza promozionale agli operatori.
4.1
NotIZIaRIo tEcNIco tElEcom ItalIa - anno18 NumeroUNo2009
La guida interattiva in mobilità di
Telecom Italia
Per migliorare l’esperienza turistica e fidelizzare il turista con modalità di fruizione multimediale ed interattiva Telecom Italia offre
una guida multimediale in mobilità, che agisce come un “Cicerone Virtuale” figura 7.
Il servizio di Guida Multimediale è realizzato
per offrire la massima diffusione su terminali
Figura 7 - l`interfaccia della guida in mobilita`
35
E-tourism - le nuove tecnologie in rete per il sostegno al sistema turistico nazionale - Donato Ettore, Giovanni Gasbarrone, laurent-Walter Goix
mobili, pertanto presenta un’interfaccia
“client”, sviluppata per alcuni modelli di
smartphone, ma anche l’innovativo Plugin
“Multimodal Framework”, sviluppato in Telecom Italia, per assicurare una fruizione accattivante ed una soddisfacente interazione
in browsing con i servizi da qualsiasi terminale con sufficienti capacità grafiche.
Il servizio di “guida in mobilità” fruibile da
un PDA e smartphone o da cellulari con sufficiente capacità grafica, fornisce informazioni riguardanti punti d’interesse artistico
(chiese, monumenti, musei, edifici storici,
piazze) e/o di servizio (Consolati, Uffici Turistici,Stazioni di polizia, ristoranti e mezzi di
trasporto).
Per accedere alle funzionalità del Cicerone Virtuale è prevista una fase di autenticazione, a valle della quale si passa al menù
di primo livello, strutturato in funzione delle
esigenze di esperienza turistica e di comprensione grafica.
I vari punti d’interesse (POI) sono riportati
in forma grafica su di una mappa cartografica visualizzata sullo schermo del PDA e riferita all’area in cui si trova il turista. Le
mappe possono essere personalizzate in
modo che il turista possa visualizzare su una
certa area solo determinate categorie di
punti di interesse (musei, ristoranti, siti turistici, fermate dei mezzi pubblici, eventi...).
Per ogni luogo d’interesse artistico l’informazione presentata è di tipo multimediale.
Inoltre il “Cicerone Virtuale” può fornire
una lista di itinerari tematici (culturali, turismo
alternativo, lifestyle etc.) da seguire (a piedi
o con mezzi di trasporto) in funzione della
posizione geografica del turista.
L’interazione con il terminale è di tipo
“touch screen” per cui l’accesso alle informazioni è agevole ed intuitivo e si ottiene clickando sul punto d’interesse prescelto
evidenziato sulla mappa.
Per ogni luogo d’interesse artistico l’informazione presentata è di tipo multimediale
combinando elementi testuali, video ed immagini a supporto. In particolare, il sistema
36
è dotato di dispositivi hardware che consentono la localizzazione dell’utente attraverso
sistemi quali:il GPS che integrato all’interno
del palmare o cellulare permette all’utente,
nei luoghi all’aperto, di visualizzare la propria
posizione sulla mappa inviando al sistema di
back end, istante per istante, le coordinate
geografiche, ricevendo, attraverso una connessione GPRS, tutte le informazioni utili alla
corretta visualizzazione della propria posizione.
L’applicazione di E-Tourism rende disponibile sul dispositivo portatile le informazioni
contestualizzate che possono essere utilizzate dal turista per pianificare preventivamente una serie di percorsi turistici che si
intendono visitare. Così, grazie al semplice
ed intuitivo sistema di ricerca, si potrà, per
esempio, individuata la zona di interesse, selezionare tutti i punti di interesse storico, artistico, naturale (POI) e richiedere al sistema
di back end di scaricare, preventivamente,
tutte le informazioni e le mappe relative al
percorso prescelto.
Il sistema, durante il percorso, mediante
allarmi sonori e visivi sulla mappa, indicherà
al turista quali sono i punti da lui indicati fornendo informazioni testuali od audio visive.
Nella modalità appena descritta, non occorre
una connessione continua tramite GPRS,
ma soltanto il supporto alla localizzazione (tipicamente GPS). Inoltre sono integrate nella
guida in mobilità le funzionalità 2.0 Teamlife
& RecS della Context Awareness per il turismo, che è in grado di comprendere la situazione (context) degli utilizzatori, adattando
automaticamente i contenuti e i servizi per
fornire ai turisti l’informazione giusta in un
momento e in un luogo determinato. L’integrazione di tutte le funzionalità in precedenza descritte, attraverso l’uso di soluzioni
architetturali quali quelle implementate nella
libreria MMF, porta verso un’architettura
come quella illustrata in figura 8, in cui una
funzionalità può essere acceduta con diversi
profili di funzionamento e con modalità di interazione differenti da dispositivi completa-
NotIZIaRIo tEcNIco tElEcom ItalIa - anno18 NumeroUNo2009
E-tourism - le nuove tecnologie in rete per il sostegno al sistema turistico nazionale - Donato Ettore, Giovanni Gasbarrone, laurent-Walter Goix
Figura 8 - Piattaforma e tourism : soluzioni per gestire offerte integrate
mente diversi quali un’auto, il proprio PC
piuttosto che il proprio cellulare o un totem
multimediale collocato in un sito turistico o di
transito.
Ogni dispositivo ha delle capability peculiari che permettono la percorrenza di alcuni
rami del servizio, per cui sarà possibile programmare la propria vacanza dal proprio PC
o personalizzare i propri itinerari dal televisore dell’albergo munito di ricevitore digitale
terrestre, raggiungere le località con la propria automobile mentre il servizio, proprio
come un vero e proprio accompagnatore ti
racconta le caratteristiche delle città che si
attraversano o si stanno per raggiungere;
inoltre, mentre l’utente passeggia potrà
avere informazioni di dettaglio piuttosto che
informazioni di tipo accessorio direttamente
dal proprio cellulare. Infine, nel caso voglia
acquistare con le monetine l’ingresso ad una
mostra si potrà recare ad un totem, continuare la propria navigazione nel servizio e
comperare i biglietti desiderati.
5
NotIZIaRIo tEcNIco tElEcom ItalIa - anno18 NumeroUNo2009
E-Tourism: le sperimentazioni di
Telecom Italia
Il carnevale di Venezia
Presentato al Comune di Venezia in occasione del Carnevale 2008, il servizio ha consentito agli utenti che si sono connessi con
un accesso Wi-Fi nell’area attiva presso
Piazza San Marco, o da rete mobile in tutta
l’area di Venezia, di “navigare” tra gli eventi
del Carnevale e ricevere informazioni sui siti
e percorsi turistici in tempo reale oltre ad interagire tra loro pubblicando sulla piattaforma di E-Tourism di Telecom Italia, con il
semplice invio di un MMS, le immagini fotografiche e i relativi commenti sui siti artistici
di interesse visitati. Per tutta la durata del
Carnevale i turisti hanno potuto ricevere informazioni turistiche in mobilità e contestualizzate, condividere esperienze di viaggio
con immagini o filmati, e inserire voti, foto e
appunti scritti per consigliare altri e, vicende-
37
E-tourism - le nuove tecnologie in rete per il sostegno al sistema turistico nazionale - Donato Ettore, Giovanni Gasbarrone, laurent-Walter Goix
volmente, ricevere pareri. I turisti
raggiunti sul proprio cellulare via
bluetooth da messaggi multimediali
di benvenuto con le informazioni
sugli eventi del Carnevale, hanno
Figura 9 - la vista del portale E-tourism
per il carnevale di Venezia del 2008,
accesso su terminale mobile per info sugli
eventi e percorsi artistici e pubblicazione
foto sullo schermo a Piazza San marco
38
NotIZIaRIo tEcNIco tElEcom ItalIa - anno18 NumeroUNo2009
E-tourism - le nuove tecnologie in rete per il sostegno al sistema turistico nazionale - Donato Ettore, Giovanni Gasbarrone, laurent-Walter Goix
potuto inviare le varie foto sull’esperienza
che stavano vivendo e rivederle in real time
direttamente sui maxi-schermi posti in
Piazza San Marco o sui monitor di alcuni bar
storici (figura 9). Il trial di Venezia è stato così
il primo dimostratore E-Tourism di guida in
mobilità con applicazioni Web 2.0, in cui l’utilizzatore non è stato più solo un consumatore, ma è diventato anche produttore di
informazione. Questo grazie ad un sistema
intelligente creato per le community, pensato
per mettere in relazione Amministrazione e
gli operatori del turismo con i cittadini ed
i turisti.
risti di caricare le proprie foto scattate via cellulare o via macchina fotografica anche tornati a casa, incrementando fortemente
l'effetto community, per raggiungere più di
12000 viste e 2000 voti. Un altro importante
successo dell'E-Tourism in ottica 2.0 che dimostra la proattività spontanea degli utenti e
la volontà forte dei turisti di avere un ruolo
da protagonista nelle iniziative turistiche
delle pubbliche amministrazioni.
Demo servizi E-tourism durante
il W4B ( Wireless for Business)
e SmaU 2008
la Notte Rosa di Rimini
Dal 5 Luglio al 22 Agosto 2008, dopo Venezia, anche la Riviera Adriatica è diventata
“Context-Aware” e Web 2.0 grazie alla piattaforma di E-Tourism, con il trial svolto durante la Notte Rosa, il cosiddetto Capodanno
dell’Estate, che richiama ogni anno circa un
milione e mezzo di persone. Durante
l'evento infatti il servizio sperimentato ha
consentito ai turisti presenti per l'evento di
inviare tramite MMS le loro foto o video fatte
da cellulare delle varie animazioni e concerti
su un sito dedicato (http://teamlife.telecomitalia.it/notterosa) accessibile direttamente
dal portale principale dell'evento e pubblicizzato nei vari locali e bagni della Riviera. Il
portale consentiva anche il commento e il
voto delle foto da parte degli utenti per incentivare la creazione di una community attorno
all'evento, potendo condividere i propri giudizi su un particolare evento o foto, e decidendo in modo collegiale la foto più bella o il
migliore evento. Oltre al portale web tradizionale i turisti avevano a disposizione un portale mobile (http://nr.teamlife.it) ottimizzato
per essere fruito da qualunque device mobile e accedere ai medesimi contenuti e funzionalità.
A valle dell'evento stesso, all'inizio di luglio, il trial è stato prolungato per l'intero
estate fino a fine agosto per consentire ai tu-
Nel corso sia dell’evento W4B che a
SMAU è stata resa disponibile ai visitatori
una demo dedicata di guida in mobilità per
l’evento con informazioni utili dedicate e con
la georefenziazione dei contenuti su Fiera
Milano City, dove le info logistiche e turistiche sono state legate al contesto di fruizione. (una demo navigazione su web e
mobile è disponibile su http://smau.teamlife.it/)
La mappa e l’agenda degli eventi sono
state rese disponibili on line sugli smartphone dei partecipanti. Un elenco di ristoranti o altre utilità nei dintorni della fiera sono
stati fruibili da cellulare con info, mappe e
numeri di telefono disponibili immediatamente.
6
NotIZIaRIo tEcNIco tElEcom ItalIa - anno18 NumeroUNo2009
Conclusioni
Il mercato del turismo culturale sta evolvendo verso una dimensione d’appagamento complessivo dei bisogni del turista
durante la sua esperienza di vacanza comportando da un lato la centralità dell’aspetto
culturale all’interno di un’esperienza di viaggio più ampia, con una maggiore autonomia
del turista nella scelta del proprio “percorso
di vacanza”.
39
E-tourism - le nuove tecnologie in rete per il sostegno al sistema turistico nazionale - Donato Ettore, Giovanni Gasbarrone, laurent-Walter Goix
Il turista mostra così una crescente esigenza di svolgere un ruolo attivo e partecipativo nell’esperienza turistica, integrando i
contenuti culturali della visita con i contenuti
personali auto-generati e condividendoli con
la “comunità turistica”. L’offerta ICT di E-Tourism di Telecom Italia venendo incontro a
quest’esigenza mette a disposizione, attraverso un’infrastruttura unitaria multi-canale
e con alti livelli di sicurezza, strumenti potenti
e di facile uso per l’informazione e l’interazione, tra il turista gli operatori di settore e la
Pubblica Amministrazione
A valle di una fase di sperimentazione dei
servizi in campo nel corso del 2008, sono
partite molteplici iniziative di collaborazione
con la PA e sono in corso di realizzazione implementazioni della piattaforma E-Tourism
per offrire un valido supporto alle azioni di
promozione delle istituzioni e degli operatori
del turismo in Italia.
A
CRONIMI
AJAX
API
ASR
CA
CMS
DSR
GIS
GPRS
GPS
ICT
Asynchronous JavaScript and XML
Application Programming Interface
Automatic Speech Recognition
Context Awareness
(Content Management System)
Digital Speech Recognition
Geographic Information System
General Packet Radio Service
Global Positioning System
Information & Communication
Technologies
IVR
Interactive Voice Response
LBS
Location-Based Services.
MMF Multimodal Framework
MMS Mobile Multimedia Service
NGN Next Generation Network
OMTP Open Mobile Terminal Platform
PA
Pubblica Amministrazione
PDA Personal Digital Assistant
PIL
Prodotto Interno Lordo
40
POI
RECS
RFID
SMS
SOA
TTS
UGC
XMPP
Point of Interest
Recommendations service
Radio Frequency Identification
Short Message Service
Service Oriented Architecture
Text To Speech
User Generetated Content
Extensible Messaging and Presence Protocol
B
IBLIOGRAFIA
[1] “Context Awareness: servizi mobili su misura”, M. Marengo, M. Valla, N. Salis - Notiziario Tecnico Telecom Italia Anno 16 n.1
Aprile 2007, pp 11-21
[2] SMAU RAI Bit 09/11/2008 - In questa puntata: Rivoluzione Tv - Tecnologia vista allo
Smau Il “Cicerone Virtuale” per i turisti
http://www.radio.rai.it/radio1/bit/search.cfm
[3] W4B – Wireless for Business 2008 “La
guida turistica interattiva di Telecom Italia” http://www.pmi.telecomitalia.it/pmi/etourism.php
[4] SMAU 2007 RAI Neapolis -18/10 Speciale
da Smau 2007 “La guida turistica via cellulare e smartphone” http://smau.blog.rai.it/
2007/10/18/lict-made-in-italy/
[email protected]
[email protected]
[email protected]
NotIZIaRIo tEcNIco tElEcom ItalIa - anno18 NumeroUNo2009
E-tourism - le nuove tecnologie in rete per il sostegno al sistema turistico nazionale - Donato Ettore, Giovanni Gasbarrone, laurent-Walter Goix
A
UTORI
Donato Ettorre
Giovanni Gasbarrone
laurent-Walter Goix
laureato in ingegneria elettronica è entrato in Azienda nel
2001. Autore di numerosi brevetti, si è inizialmente occupato
di progettazione di sistemi embedded per la codifica radio e
della realizzazione di piattaforme prototipali di terminali
mobili. Dal 2005 è responsabile delle attività di ricerca relative all’evoluzione
dell’interfaccia utente con l’introduzione di tecnologie embedded innovative quali le
tecnologie vocali, i sensori, gli
accelerometri ed i display.
Dal 2007 ha la responsabilità
delle attività di progettazione,
integrazione e sviluppo di soluzioni distribuite abilitanti la
creazione di servizi mobili, alla
base della piattaforma di e
Tourism di Telecom Italia ■
laureato in Ingegneria Elettronica, dopo i corsi di specializzazione in Telecomunicazione
(SSGRR) e Marketing alla
Bocconi SDA, ha iniziato la
sua attività in Telecom Italia
nella direzione "Ricerca e Sviluppo" e nel Marketing Strategico dove ha seguito lo sviluppo della rete intelligente e radiomobile. Nella Divisione Business dal 1993, è stato responsabile dei servizi commerciali OSS. Nel 1999 è stato coordinatore del progetto di convergenza fisso-mobile in Telekom Austria. Dal 2000 partecipa al World Wireless Research
Forum per gli aspetti architetturali dei servizi e business models. Dal 2002 nel Marketing
Strategico e Innovazione di
Wireline si è occupato dei servizi a larga banda (HSDPA,
WiMax e WiFi Mesh) e dei servizi di convergenza fisso-mobile (FMC). Dal 2006 nella funzione Marketing della Direzione Top Client & ICT Services,
è product manager per le offerte innovative ICT wireless per
la Pubblica Amministrazione
ed è responsabile in particolare per l’offerta E-Tourism di cui
ha seguito anche lo sviluppo
della piattaforma ed i trial in
campo ■
laureato presso l'INSA de Lyon
(Francia) nel 2001 e ha ottenuto un Master in Telecomunicazioni presso TILS nel 2004.
Ha lavorato presso Lucent Technologies in Naperville, Illinois
(USA) sul testing di soluzioni
VoIP end-to-end in reti wireless
MAN. In Azienda dal 2001 ha
partecipato successivamente
allo sviluppo della suite VoIP
StarSIP, alla definizione di servizi di videoconferenza Any-toAny su reti IP/UMTS, ha
guidato un team per la specifica e implementazione della
soluzione del Service Bus per
la gestione di reti StarSIP. Dal
2006 nel progetto di Context
Awareness è responsabile di
un task sulla definizione di
enabler context-aware, in particolare legati alla condivisione
di contenuti user-generated
(UGC) e al mobile advertising
e ha contribuito a diversi progetti di ricerca europei IST: Mobilife, SPICE e OPUCE, di cui
è tutt'ora Scientific Manager e
workpackage leader.
È co-autore di un libro su SIP e
di articoli pubblicati in conferenze o libri ■
NotIZIaRIo tEcNIco tElEcom ItalIa - anno18 NumeroUNo2009
41
Femtocelle:
la stazione radio dentro casa
MOBILE
G
Camillo Carlini, Giulio Guerra, Alessandro Vaillant
li ultimi anni hanno visto l’accesso wireless divenire sempre più
pervasivo, ed efficace in termini di velocità di trasmissione. Gli enti
di standardizzazione del mondo mobile (3GPP ed IEEE) hanno
sviluppato diverse interfacce radio, tracciandone l’evoluzione verso
throughput sempre più elevati. Sebbene le tecnologie siano
etichettate con il throughput teorico di picco, in pratica le loro prestazioni dipendono
dalla qualità radio e dalla concorrenza sull’accesso alla risorsa; l’avvicinamento
dell’antenna di trasmissione al terminale migliora il canale radio e quindi le
prestazioni effettive che il cliente può sperimentare.
Le femtocelle, mini trasmettitori da installare casa per casa, limitano il cammino del
segnale così riducendo la possibilità di degradazioni.
L’articolo analizza il nuovo ecosistema abilitato dal paradigma di accesso
femtocellulare, soffermandosi sugli scenari di servizio, sulle varianti architetturali,
sugli aspetti tecnologici, affrontando i principali punti ancora aperti.
1
Cos’è una femtocella?
L’ambiente indoor ha assunto grande importanza per gli operatori di rete, poiché
sede di una grossa porzione del traffico mobile. Il voler supportare servizi mobili realmente broadband impone l’introduzione, in
42
aggiunta ai consueti dispiegamenti macrocellulari, di dispiegamenti micro e femtocellulari, con antenne vicine all’utente e
disponibilità sulla rete di trasporto di tecnologie a larga banda (fibra nel caso di dispiegamento micro, fibra o xDSL nel caso di
dispiegamenti femto).
NOtIzIarIO tEcNIcO tELEcOM ItaLIa - anno18 NumeroUNO2009
Femtocelle: la stazione radio dentro casa - camillo carlini, Giulio Guerra, alessandro Vaillant
Figura 1 - Descrizione Femtocella
Con il termine femtocella s’intende una
cella di piccole dimensioni (figura 1), quali
possono essere quelle di un’unità abitativa o
un ufficio. Più in generale si va ad intendere
con questo termine anche l’apparato radio
che genera tale cella, normalmente caratterizzato da dimensioni, costi e consumi ridotti
che consentono ad un utente di essere connesso alla rete mobile attraverso un terminale mobile standard.
La femtocella (alias Femto Access Point o
Home NodeB), pertanto, rappresenta una
stazione radio base domestica a bassa potenza ed autoinstallante, che non richiede
manutenzione da parte del cliente ed è gestita a distanza dall’operatore e che, a differenza delle WLAN, trasmette su bande
soggette a licenza (ad es. quelle dell’UMTS).
Una femtocella è in grado di garantire la copertura 3G, sfruttando ad esempio la connet-
NOtIzIarIO tEcNIcO tELEcOM ItaLIa - anno18 NumeroUNO2009
tività xDSL dell’utente, attraverso il modem
a banda larga dell’utente, oppure mediante
un modem integrato (figura 2).
La femtocella è collegata alla Core Network mobile attraverso un AP Controller/
Concentrator, che, oltre ad aspetti di gestione e configurazione, ha anche lo scopo
di mascherare alla rete radiomobile la potenziale elevata numerosità degli Access
Point (che in molte soluzioni implementano
le funzionalità semplificate di un RNC). La
connessione tra la femtocella e il concentratore è tipicamente basata su un IPsec
tunneling, che sfrutta un backhauling
ADSL2+. Le prime soluzioni previste sono
relative all’ambito domestico o consumer,
mentre le soluzioni relative al segmento business sono attualmente in fase di consolidamento.
Dal punto di vista degli operatori, i van-
Figura 2 - Scenario di riferimento femtocellulare
43
Femtocelle: la stazione radio dentro casa - camillo carlini, Giulio Guerra, alessandro Vaillant
taggi derivanti dall’impiego della tecnologia
femto sono:
• incremento della capacità di rete: come
primo risultato, con il deployment di femtocelle si vanno ad attenuare tutti quei vincoli che limitavano la capacità e la
copertura di rete, infatti, nel momento in
cui un cliente viene servito da una femtocella dedicata, si va ad alleggerire il carico
della cella macro, incrementando la capacità totale della rete dell’operatore mobile;
• miglioramento della copertura indoor:
in particolare per il 3G, l’utilizzo di frequenze più elevate comporta maggiori difficoltà nella penetrazione indoor con la
densità attuale di celle;
• potenziale diminuzione di siti macro: un
alleggerimento progressivo della rete
macro unito ad un rafforzamento della copertura indoor, comportano una minore
necessità di installazioni di siti macro, soprattutto quelli nati per capacità o miglioramento della qualità del servizio
percepito dall’utente (ad esempio in termini di throughput);
• mobilità “trasparente” con la rete
macro: anche se con alcune limitazioni
(che saranno illustrate in seguito) è garantita la mobilità tra layer femto e macro 3G
(e in alcuni casi macro 2G);
• diminuzione dei costi di backhauling: il
traffico della femtocella verso la Core Network viene trasportato, sfruttando la connettività IP del cliente, che può così
soddisfare anche l’incremento richiesto
per il supporto di nuove tecnologie come
l’HSxPA;
• incremento di penetrazione dei servizi
di mobile broadband: con l’aumento
della copertura e delle performance della
banda larga wireless, i servizi mobili ad
alto bit rate non potranno che beneficiarne;
• utilizzo delle frequenze licenziate: lavorando su frequenze licenziate, gli operatori
radiomobili acquisiscono un vantaggio
competitivo;
44
• fidelizzazione del cliente attraverso offerte di tipo home zone: sfruttando la copertura radio dedicata della femtocella,
limitandone l’accesso con uso esclusivo,
è possibile costruire agilmente offerte appealing basate su tariffazione home zone,
anche grazie ad una migliore accuratezza
nell’identificazione dell’area “home” insita
nelle caratteristiche di propagazione radio
delle femto.
Dal punto di vista del cliente i vantaggi
sono:
• miglioramento della copertura indoor:
anche per il cliente si ha il vantaggio di
poter avere a disposizione una copertura
mobile “at home”;
• miglioramento della “user experience”
attraverso un incremento di throughput: a differenza delle macrocelle che
supportano centinaia di utenti, le femtocelle serviranno un limitato numero di
utenti attivi contemporaneamente. È verosimile quindi che le connessioni basate
sulle femto offriranno mediamente bit rate
più elevati rispetto all’ambiente macro, in
quanto le risorse del nodo (potenza e codici) sono utilizzate dai soli utenti abilitati
all’accesso della femto e le condizioni propagative ed interferenziali sono migliori rispetto al caso macro;
• utilizzo dello stesso terminale cellulare:
poiché la totalità delle femtocelle oggi disponibili fornisce una copertura di tipo 3G,
il vantaggio principale che ne deriva per gli
utenti è che non è necessario acquistare
un dispositivo dedicato, ma si può sfruttare
lo stesso terminale cellulare utilizzato per
le chiamate di tipo mobile sotto rete
macro. In questo modo, a differenza di
altre tecnologie come UMA, dove i terminali devono necessariamente essere dedicati o eventualmente dual-mode, con
una conseguente limitata disponibilità di
soluzioni, si può continuare ad avere l’ampia scelta e la comodità d’uso di un dispositivo mobile standard;
NOtIzIarIO tEcNIcO tELEcOM ItaLIa - anno18 NumeroUNO2009
Femtocelle: la stazione radio dentro casa - camillo carlini, Giulio Guerra, alessandro Vaillant
• tariffazioni potenzialmente migliori: per
l’utente finale inoltre ci possono essere tariffe più convenienti poiché l’operatore, risparmiando sui costi, può offrire tariffe più
vantaggiose e competitive;
• abilitazione di nuovi servizi di Home
Networking: la femtocella diviene un elemento della casa del cliente e contribuisce
a portare nell’ambito dei device dell’
“Home networking” (TV, Gateway utente,
modem xDSL, Set of Box, ecc…) anche il
terminale mobile, lo stesso impiegato in
condizioni di mobilità al di fuori dell’ambiente domestico. Questo potrebbe contribuire a creare, in ottica prospettica, una
famiglia di servizi che sfruttino al meglio le
interazioni tra terminale mobile e device
della casa grazie alla femtocella.
2
Scenari di servizio femtocellulari
Di seguito sono brevemente descritti dei
possibili scenari di servizio, con l’ottica di illustrare una panoramica completa sull’opportunità tecnologica offerta dalla soluzione
femtocellulare.
nismi di QoS, dovranno essere compatibili
con l’erogazione degli stessi servizi radiomobili che il cliente è abituato ad utilizzare sotto
copertura macro.
La femtocella 3G infatti, è un Access Point
3G che, una volta installato, viene visto da
un terminale 3G, cellulare o PC card, come
una normale cella di rete. In questo scenario,
il cliente è in grado di originare o ricevere
chiamate (Voce, SMS o MMS o videochiamate o connessioni dati), in maniera trasparente, su rete femto o su rete macro 2G/3G
in funzione dell’area di copertura in cui si
trova.
In tale scenario, unico requisito (radio) per
l’utente, affinché riesca ad utilizzare la copertura Femto dedicata, è che disponga di
un terminale mobile 3G standard, cellulare o
PC card, configurato in modalità “Dualmode” o “solo UMTS”, senza alcun client
ad hoc.
2.2
2.1
Scenario Consumer
L’applicazione della soluzione Femto 3G
in ambiente residenziale, per clientela consumer, costituisce lo scenario di servizio con
disponibilità maggiormente ravvicinata, poiché è stato l’obiettivo primario nella definizione e sviluppo dell’attuale tecnologia.
L’architettura di riferimento coincide con
quella descritta in figura 2, nella quale si assume che il backhauling della femtocella avvenga grazie alla connessione xDSL del
cliente. Le caratteristiche del trasporto in termini di banda disponibile, latenza e mecca-
NOtIzIarIO tEcNIcO tELEcOM ItaLIa - anno18 NumeroUNO2009
Scenario Business/Enterprise
L’applicazione della soluzione Femtocella
3G per la clientela Business, nelle due declinazioni SOHO/Large Enterprise, costituisce lo scenario di servizio più sfidante allo
stato dell’attuale maturità della tecnologia.
Lo scenario Business, per le sue peculiarità,
non può prescindere da alcune prestazioni,
quali ad esempio l’handover femto-femto,
piuttosto che un maggior traffico smaltibile
in termini di utenti abilitati e chiamate contemporanee, maggiore copertura... che possono effettivamente decretarne il successo
o l’insuccesso.
È ragionevole aspettarsi che questa architettura dovrà essere più flessibile rispetto a
quella dello scenario di tipo consumer, in
modo da adattarsi e integrarsi in scenari di
tipo Large Enterprise, le cui dimensioni e caratteristiche richiedono quasi sempre sviluppi “tailored”.
45
Femtocelle: la stazione radio dentro casa - camillo carlini, Giulio Guerra, alessandro Vaillant
3
Si noti che nell’approccio con accesso ristretto, il numero massimo di USIM gestibili
dalla white list potrebbe essere limitato sulla
base delle caratteristiche del prodotto femto,
analogamente a quanto avviene in termini di
altre prestazioni (ad es. numero massimo di
utenti/chiamate contemporaneamente gestibili dall’AP).
Controllo dell’Accesso
Un elemento fondamentale della tecnologia femto riguarda la modalità di accesso
utenti dei vari clienti alla femtocella. In particolare, sono contemplate le seguenti modalità:
• open mode, anche detta “open access”,
in cui è prevista la possibilità di utilizzare
l’AP femto da parte di un qualsiasi utente
che lo selezioni come miglior cella servente
(sulla base dei normali criteri radiomobili);
• closed mode, o “exclusive access”, in cui
l’accesso è consentito ai soli utenti che dispongano di USIM autorizzate sulla base di
una “White List” (presente nella femtocella
o nel femto Gateway), la cui creazione avverrà nella fase di sottoscrizione del servizio femto. Nello specifico, l’autorizzazione
avviene attraverso un controllo dell’IMSI nel
corso delle procedure per la gestione della
mobilità (tipicamente Location Area Update). Se l’IMSI fa parte della lista, il Location Update viene autorizzato, altrimenti
viene inviato al terminale un messaggio di
Location Update Reject contenente un codice (cause number), che identifica il motivo del rifiuto. I più comuni, proposti in
standard [1], sono cause number #12 (Location Area not allowed), cause number
#13 (Roaming not allowed in this location
area). L’utente può abilitare o rimuovere
utenti dalla White List con modalità dipendenti dal paradigma di provisioning. Un
utente rifiutato rimane sulla copertura
macro (quando presente) a meno che non
debba effettuare una chiamata di emergenza.
• group mode o “semi-open”: questa tipologia di controllo dell’accesso potrebbe risultare utile per soluzioni femtocellulari di
tipo Business/Enterprise ed è derivata dal
modello di accesso chiuso, in cui si specificano privilegi di accesso per utenti di tipo
corporate appartenenti allo stesso enterprise group.
46
4
Mobilità in idle e in connected
mode
Per quanto riguarda la prestazione di mobilità tipica dei servizi radiomobili, la tecnologia
femto, basata sulle architetture integrate con
la rete di accesso e core mobile, prevede che
in idle-mode sia garantita la cell re-selection
bidirezionale tra femto e macro 3G (e in principio anche macro 2G).
In connected mode (cioè in presenza di
chiamate voce/dati) è tipicamente supportato
l’handover tra femto e macro 3G (e in alcune
soluzioni anche macro 2G) nella direzione
uscente (hand out): femto→macro 3G o 2G.
Nel caso di chiamata originata su rete macro
3G o 2G, quando il cliente entra in copertura
femto continua ad utilizzare la rete macro 3G
o 2G sino al termine della chiamata. Una volta
chiusa la chiamata (o connessione dati) il terminale del cliente effettua una cell re-selection
automatica, per accamparsi sulla rete femto.
La mobilità femto↔femto risulta invece di
maggior interesse nel caso di accesso open
mode ed in particolare per soluzioni di tipo
“Enterprise”.
5
Coesistenza con la rete
macrocellulare
La coesistenza tra layer macro e femtocellulare (nel caso di controllo di accesso
NOtIzIarIO tEcNIcO tELEcOM ItaLIa - anno18 NumeroUNO2009
Femtocelle: la stazione radio dentro casa - camillo carlini, Giulio Guerra, alessandro Vaillant
esclusivo) rappresenta sicuramente uno dei
maggiori punti di attenzione relativi al deployment femto. In particolare l’aspetto interferenziale deve essere tenuto attentamente in
considerazione, qualora si scelga di utilizzare
una portante condivisa dai due layer. L’utilizzo di portanti dedicate rende infatti trascurabile, in gran parte dei casi, le problematiche
interferenziali.
Di seguito vengono presentati alcuni dei
principali problemi interferenziali che potrebbero manifestarsi sulla tratta downlink (nel
caso di interferenza co-canale). Nelle seguenti illustrazioni viene indicato con “C” il segnale utile, mentre con “I” quello interferente.
• interferenza da macro verso femto: le
performance di un utente “femto” connesso
all’AP (figura 3) in alcune condizioni potrebbero essere degradate dalla presenza di
una stazione radio base macro interferente
sulla stessa portante.
• interferenza da femto verso macro e deadzone: nel caso di accesso esclusivo, è
probabile che le performance di un utente
”macro” indoor (non autorizzato sull’AP)
connesso alla stazione radio base esterna
risentano dell’interferenza generata dall’AP
sulla stessa portante (figura 4).
In questo scenario, in prossimità dell’AP è
possibile individuare un’area all’interno
della quale l’utente “macro” indoor (non
autorizzato) non può accedere al servizio,
a causa di un eccessivo livello interferenziale. Quest’area, che nel caso di
deployment su una stessa portante può
raggiungere le dimensioni di alcune decine
di metri, viene tipicamente chiamata dead
zone e rappresenta pertanto un buco di
copertura macro (sulla stessa portante
della femto) per utenti non autorizzati
(figura 5). Nella deadzone un utente macro
non abilitato riseleziona, quando disponibili,
un’altra portante 3G oppure la rete GSM.
Le femtocelle possono disporre di algoritmi
di autotuning della potenza, che hanno lo
scopo di controllare e minimizzare i fenomeni interferenziali.
Figura 3 - Interferenza macro verso femto
per un cliente “femto”
Figura 4 - Interferenza femto verso macro
per un cliente “macro”
Figura 5 - Deadzone
6
NOtIzIarIO tEcNIcO tELEcOM ItaLIa - anno18 NumeroUNO2009
Architettura
L’architettura di supporto al deployment
degli Home NodeB 3G (3G HNB) deve garantire un’integrazione efficace con la rete
mobile esistente e l’implementazione di un
insieme di funzionalità specifiche per l’accesso femtocellulare.
Per quanto riguarda l’integrazione con la
rete mobile, uno dei requisiti principali con-
47
Femtocelle: la stazione radio dentro casa - camillo carlini, Giulio Guerra, alessandro Vaillant
siste nel realizzare l’interconnessione tra accessi femto e rete core con soluzioni il più
possibile trasparenti alla seconda, ossia mascherando la numerosità degli HNB ed evitando impatti sulle interfacce Iu verso i nodi
di Core Network. Questo avviene attraverso
l’introduzione di un HNB GW (Home NodeB
Gateway) che si interfaccia alla rete core
come un RNC standard.
Ulteriori requisiti di integrazione con la rete
mobile che hanno un impatto sul design
dell’architettura femtocellulare sono il supporto delle funzionalità di:
• charging: ragionevolmente occorre definire
soluzioni di tariffazione ad hoc del traffico
originato da rete femto;
• mobilità tra accessi femto e macro;
• emergency call;
• lawful interception;
• gestione efficiente del traffico, in particolare per quanto riguarda scenari di switching locale del traffico, ad esempio
scenari “campus” ed in generale per l’instradamento del traffico di navigazione su
Internet.
La rete di accesso femtocellulare, inoltre,
deve supportare funzionalità specifiche, allo
scopo di consentire il deployment in rete
degli HNB in modalità plug&play e fornire
meccanismi efficienti di controllo dell’accesso e della mobilità in rete femto in idle ed
active mode, dunque soluzioni di:
• UE Registration, ossia meccanismi attraverso i quali uno UE si registra presso la
rete di accesso femtocellulare (in dettaglio
presso l’HNB GW), a valle dell’accesso ad
una femtocella. La registrazione presso
l’HNB GW consente, ad esempio, l’implementazione di politiche di Acces Control e
soluzioni di paging optimisation;
• HNB Registration, ossia meccanismi attraverso i quali, all’accensione di un HNB
e a valle della procedura di discovery di un
opportuno Serving HNB GW, l’HNB si registra presso tale GW;
• HNB GW Discovery, ossia meccanismi
attraverso i quali l’HNB, a valle dell’accen-
48
sione, individua l’HNB GW al quale collegarsi nello stato operazionale;
• HNB Location verification, ossia meccanismi attraverso i quali l’operatore verifica
che l’HNB venga accesso solo in una location autorizzata.
Inoltre la rete di accesso femtocellulare
pone requisiti specifici in termini di sicurezza,
poiché occorre garantire soluzioni di:
• autenticazione ed autorizzazione dell’HNB (eventualmente mutua autenticazione tra HNB e rete mobile);
• sicurezza della connessione tra HNB e
rete dell’operatore (confidenzialità ed integrità dei dati).
Infine, si possono porre ulteriori requisiti
secondo le specifiche caratteristiche della
rete dell’operatore presso cui viene effettuato il deployment della rete di accesso
femto come, ad esempio, soluzioni di supporto della QoS e di multiplazione del traffico
d’utente.
6.1
Lo standard 3GPP
La figura 6 descrive l’architettura di rete
di accesso femtocellulare secondo quanto
incluso nello Stage 2 di Release 8 [13],
definito dal 3GPP RAN WG3, dove le entità di rete introdotte e le relative funzioni
sono:
• HNB: implementa le funzioni di NodeB ed
RNC. Supporta l’interfaccia Uu verso lo
UE, l’interfaccia Iu-h (Control Plane e User
Plane) verso l’HNB GW e l’interfaccia di
gestione verso l’HMS (Home Management
System) per le funzioni di provisioning dei
parametri di configurazione, di HNB GW
Discovery e Location verification.
• HNB GW: rappresenta l’entità di collegamento tra 3G HNB e la rete core mobile.
Oltre a rappresentare un punto di raccolta
del traffico femtocellulare, svolge le funzioni di:
NOtIzIarIO tEcNIcO tELEcOM ItaLIa - anno18 NumeroUNO2009
Femtocelle: la stazione radio dentro casa - camillo carlini, Giulio Guerra, alessandro Vaillant
○ supporto dell’interfaccia Iu-h verso
l’HNB e delle interfacce Iu-CS e Iu-PS
verso la rete core mobile;
○ relay (ed in alcuni casi interlavoro di alcuni parametri) della segnalazione tra
HNB e rete core;
○ relay dello User Plane GTP;
○ supporto delle procedure di HNB Registration e UE Registration su interfaccia
Iu-h.
• Security Gateway (SeGW): supporta le
procedure di autenticazione dell’HNB e
messa in sicurezza dell’interfaccia Iu-h e
dell’interfaccia verso l’HMS. Come opzione
implementativi tale funzione può essere integrata nel Security Gateway.
• HNB Management System (HMS): basato sulla famiglia di standard TR-069
svolge le funzioni di provisioning dell’HNB,
di discovery dell’HNB GW e Location verification. Nella procedura di bootstrap dell’HNB, l’HMS comunica all’HNB i nodi di
rete serving: provisioning HMS (eventualmente diverso da quello di bootstrapping),
SeGW, HNB-GW.
Per quanto riguarda le funzioni di Control
Plane, l’interfaccia Iu-h supporta due Application Part differenti in corrispondenza di
due diversi set di funzioni ed in particolare:
• il RANAP, per la consueta segnalazione di
controllo tra rete di accesso e core ed il trasporto del NAS. A tale scopo è stato definito un livello di adattamento (RUA,
RANAP User Adapatation) per il trasferimento trasparente dei messaggi RANAP;
• l’HNBAP (Home NodeB Application Part),
Figura 6 - architettura delle rete di accesso
femtocellulare (tS 25.467)
NOtIzIarIO tEcNIcO tELEcOM ItaLIa - anno18 NumeroUNO2009
per le procedure femtocellulari descritte in
precedenza (UE Registration, HNB Registration). La procedura di UE Registration
include la funzione di verifica delle credenziali di accesso dello UE presso l’HNB
(funzione di Access Control). Occorre distinguere due casi:
○ UE pre-Release 8. In questo caso l’Access Control è svolto in rete di accesso
femtocellulare e viene gestito in modo
mandatorio dall’HNB GW ed opzionalmente dall’HNB. L’Access Control si
basa sulla verifica dell’inclusione dell’IMSI, che sta effettuando l’accesso in
un’opportuna White List di IMSI. Tale
soluzione, tipicamente basata su procedure NAS esistenti (LAU), è definita per
non determinare alcun impatto sugli UE;
○ UE Release 8. In questo caso l’Access
Control è svolto tra UE e rete core
(MSC ed SGSN), in modo trasparente
alla rete di accesso ed è basato sul principio del CSG (Closed Subscriber
Group). Ogni HNB annuncia in broadcast il proprio CSG-ID e ciascuno UE ha
configurati i CSG-ID autorizzati. Dunque uno UE tenta di accedere solo agli
HNB che annunciano un CSG-ID, per il
quale lo UE è autorizzato. La rete effettua un cross check in rete core (MSC,
SGSN), dove è presente il profilo di
utente che include la white list di CSG
per i quali lo UE è autorizzato ad accedere.
In tal modo si definisce una soluzione efficiente, che effettua principalmente il relay
dei messaggi RANAP da/verso Core Network (dunque senza alcun impatto verso la
rete core ed il riutilizzo di una tecnologia esistente) e prevede una soluzione ad-hoc per le
procedure specifiche dell’ambiente femtocellulare.
Lo standard 3GPP di Release 8 include le specifiche del RUA [14] e
dell’HNBAP [15].
49
Femtocelle: la stazione radio dentro casa - camillo carlini, Giulio Guerra, alessandro Vaillant
6.2
Cosa accade nel Femto Forum?
La figura 7 riporta l’architettura logica definita dal Femto Forum 1 con focus sulla rete
di accesso femtocellulare. L’architettura è allineata con quella 3GPP, mentre la diversa
nomenclatura per interfacce ed entità logiche risponde all’esigenza di definire un’architettura generale e valida per tecnologie di
accesso/sistemi diversi (HSPA, cdma2000,
WiMAX); in particolare:
• il FAP (Femto Access Point) e l’interfaccia
Fa corrispondono, per gli accessi 3GPP, al
3G HNB ed all’interfaccia Iu-h, rispettivamente. In figura 7 è riportata anche l’eventuale interfaccia (FL) verso l’Home GW.
Anche presso il Femto Forum è stata concordata la working assumption di collocare
le funzioni di RRM presso il FAP 2.
• Il Femto GW corrisponde, per gli accessi
3GPP, al 3G HNB GW. In figura 7 sono riportate anche le interfacce verso il Femto
Management System (Fm, Fg), per la gestione e la configurazione della rete di accesso femto, la funzione di SeGW
(Security GW), per le funzioni di autenticazione del 3G HNB (ad esempio con soluzione EAP-SIM/AKA) e di sicurezza
dell’interfaccia Iu-h, ed infine l’interfaccia
logica (Fb-ims) di interconnessione verso
il controllo IMS per la gestione dei servizi
negli scenari PS only, ad esempio quelli
WiFi like. Le interfacce Fa, Fb-cs e Fb-ps
in figura 7, corrispondono alle interfacce
Iu-h, Iu-cs, Iu-ps, rispettivamente.
Il Femto Forum supporta l’architettura definita dal 3GPP per gli accessi 3G e lo stack
protocollare dell’interfaccia Iu-h.
Figura 7 - architettura di riferimento
(fonte: Femto Forum)
1 Il Femto Forum (http://www.femtoforum.org) è dedicato alla definizione di soluzioni per reti femtocellulari e raggruppa le manifatturiere di soluzioni femto oltre ai principali operatori e Vendor dell’ecosistema mobile; presumibilmente sarà riconosciuto a
breve come Marketing Representative Partner (alla stregua della GSMA).
2 In [5] il Femto Forum comunica che “If the technology has RNC functionality the majority of the RNC functionality shall be in the
FAP to optimise the signalling between the FAP and the gateway”.
50
NOtIzIarIO tEcNIcO tELEcOM ItaLIa - anno18 NumeroUNO2009
Femtocelle: la stazione radio dentro casa - camillo carlini, Giulio Guerra, alessandro Vaillant
6.3
Plane IP d’utente) e non attraverso l’interfaccia Iu-h. Questa soluzione, può essere di interesse per l’ottimizzazione del trasporto del
traffico dati, in particolare in scenari Corporate, o per scenari di convergenza fisso
mobile. La possibilità di ottimizzare l’instradamento del traffico di utente nei casi in cui
non è necessario che fluisca verso la Core
Network mobile, sta spingendo i produttori di
femtocelle a studiare modalità implementative, pur rimanendo sulla soluzione architetturale con interfaccia Iu-h, della funzionalità
aggiuntiva di “offload del traffico”.
Infine, per quanto riguarda le soluzioni Iub
based, queste sono state citate per completezza, ma l’ipotesi di lavoro sia del 3GPP sia
del Femto Forum sulla collocazione dell’RRM all’HNB rende tali soluzioni di tipo proprietario, non potendo in linea di principio
garantire l’interoperabilità tra HNB e HNB
Gateway di vendor differenti.
Cenni alle varianti architetturali
Nelle discussioni nei gruppi di standard
(RAN 3) e di lobby (Femto Forum) sono
state analizzate diverse opzioni relative all’architettura di accesso femtocellulare. Tali
opzioni derivano dalla diversa collocazione
delle funzionalità nelle entità di rete e dall’utilizzo di diverse opzioni protocollari sull’interfaccia tra HNB e HNB GW. Le soluzioni
maggiormente discusse e/o testate, classificate per soluzione di collegamento degli
HNB verso i GW, sono state:
• Iu based;
• GAN-Iu based;
• Iub based;
• WiFi like o Native-IP based.
Altre soluzioni (Gn-based, SIP/IMS based)
rappresentano varianti di quelle elencate. In
realtà anche le soluzioni GAN based sono
state classificate nello standard 3GPP come
una variante delle soluzioni Iu, tuttavia
l’orientamento attuale dei lavori rende il loro
approfondimento superfluo ai fini della presente trattazione.
Ad ogni modo è necessario considerare
che alcune di queste soluzioni, proposte dai
vendor in ambito di standardizzazione, risalgono a discussioni antecedenti alla definizione della interfaccia Iu-h da parte del
3GPP. Come illustrato nel paragrafo precedente, il 3GPP ha definito come architettura
standard una soluzione di tipo Iu-based, che
incorpora alcuni elementi del GAN all’interno
del protocollo HNBAP (Iu-h). Pertanto si può
ragionevolmente ipotizzare che le soluzioni
commerciali nel medio-lungo termine saranno compliant allo standard 3GPP (e dunque basate sul modello Iu), in modo da
fornire un’effettiva possibilità di integrazione
con HNB multivendor.
È opportuno aggiungere qualche informazione sulla variante WiFi like o Native IP
Based: in questo scenario l’HNB si interconnette alla rete dell’operatore direttamente attraverso l’interfaccia Gi (dunque con lo User
7
NOtIzIarIO tEcNIcO tELEcOM ItaLIa - anno18 NumeroUNO2009
Caratteristiche tecniche del Femto
Access Point
Come visto il FAP è una piccola stazione
radio base da collocare a casa cliente, a
bassa potenza e di ingombro comparabile a
quello di un Access Point in tecnologia WiFi. Si collega tramite cavo Ethernet standard
IEEE 802.3 all’Home Gateway impiegato
dall’utente per la connessione broadband di
rete fissa.
Per quanto concerne l’interfaccia radio, un
riferimento sui possibili range di potenza e di
sensibilità è fornito dal 3GPP [1], dove viene
proposta una nuova classe di base station
(della quale non sono stati ancora finalizzati
tutti gli aspetti), i cui parametri radio sono
stati ricavati a partire dalla classe di local
base station della [16]. In particolare lo standard attualmente prevede, anche se non ancora consolidata, un max output power di 20
dBm.
51
Femtocelle: la stazione radio dentro casa - camillo carlini, Giulio Guerra, alessandro Vaillant
Per offrire un’ottima copertura indoor, 20
dBm di output power possono essere considerati perfino eccessivi in un appartamento
di medie dimensioni, se la copertura indoor
macro è “debole” (e sarebbero fonte di eccessiva interferenza). Viceversa in buona
copertura macro, 15-20 dBm possono essere utili, specie se si intende coprire più di
una stanza. Più in generale, per essere idonei ad ogni tipo di situazione, i FAP dispongono tipicamente di una massima potenza di
trasmissione sufficientemente alta (es. 15-20
dBm) combinata con un meccanismo di
auto-tuning (vedi 7.1), che cerchi di limitare
le interferenze con la rete macro ed altri
eventuali FAP.
Si comprende che il dimensionamento
della potenza massima in uscita è uno
degli aspetti cruciali dell’implementazione
del FAP; l’obiettivo è appunto trovare il miglior compromesso tra copertura radioelettrica offerta nell’ambiente domestico del
cliente e contenimento dei fenomeni interferenziali.
Per quanto riguarda la sensibilità in ricezione dei FAP, il 3GPP [1] suggerisce come
riferimento il valore di -107 dBm (lo stesso
della local base station class della 3GPP
[16]). Lo standard prevede una desensibilizzazione delle BTS indoor, in quanto i terminali in area indoor sperimentano una minore
attenuazione nella tratta UL. Il valore di -107
dBm/3.84 MHz, pur essendo di 14 dB degradato rispetto al corrispondente valore macro
(wide area BS) [16] è pertanto preferibile per
i FAP, anche al fine di evitare che la femtocella senta utenti lontani e fuori dall’area domestica del proprietario.
Per chiarezza sono di seguito riportate le
Tabella 1 e Tabella 2, riassuntive dei principali parametri radio accordati per l’Home
NodeB; si noti, come già anticipato, il buon
allineamento con i parametri delle local area
BS con l’eccezione di alcuni valori, tra cui,
oltre la già citata classe di potenza, anche il
requisito di accuratezza sulla frequenza, rilassato da 100 ppm a 250 ppm. Il maggior
errore tollerato sulla rilevazione della frequenza portante ha un impatto diretto sui requisiti di mobilità, limitando, in quest’ultimo
caso, la velocità massima dell’utente HNB a
poco sopra i 30 km/h. Tuttavia, conside-
tabella 1 - HNB: Parametri radio in trasmissione [3GPP tr 25.820 V8.0.0]
Parametro
Potenza massima in uscita
Controllo della potenza
in uscita
52
HNB
Local Area BS
20 dBm
24 dBm
[20dBm–0dBm]
Errore massimo
in frequenza
250 ppb
100 ppb
Emissioni spurie
(Protezione del ricevitore dalle proprie o
altrui emissioni)
-82 dBm
-82 dBm
Emissioni spurie
(Coesistenza con BS vicine)
-70 dBm
-82 dBm
-70 dBm (pico 900/850)
-82 dBm
Emissioni spurie
(Coesistenza con UTRA-TDD)
-55 dBm
-55 dBm
NOtIzIarIO tEcNIcO tELEcOM ItaLIa - anno18 NumeroUNO2009
Femtocelle: la stazione radio dentro casa - camillo carlini, Giulio Guerra, alessandro Vaillant
Parametro
HNB
Local Area BS
Livello di sensibilità
-107 dBm
-107 dBm
ACS
-38 dBm
-38 dBm
Blocking
Requisito minimo
-101 dBm
-101 dBm
(interferenze varie)
Blocking
Requisito minimo - Coesistenza con
GSM900, DCS 1800, PCS1900,
GSM850 e/o UTRA FDD
-115 dBm
-115 dBm
Blocking
Requisito minimo - Coesistenza con
UTRA-TDD
-101 dBm
-101 dBm
Blocking
Requisito minimo - Coesistenza con
DECT, WiFi/WLAN
[nuovo valore
da definire]
Intermodulazione
-38 dBm (wideband)
-37 dBm (narrowband)
-38 dBm (wideband)
-37 dBm (narrowband)
tabella 2 - HNB: Parametri radio in ricezione [3GPP tr 25.820 V8.0.0]
rando lo scenario domestico (home zone),
questa limitazione non è ritenuta avere impatti significativi.
Per quanto riguarda i Radio Access Bearer, benché la capacità possa dipendere
dallo scenario di applicazione del prodotto
(soluzione business o consumer), ciò che è
importante è che l’utente disponga degli
stessi RAB disponibili nella rete macro. Per
questo motivo è ragionevole attendersi il
supporto dei RAB CS (voce AMR e video
chiamata) e PS legacy (DCH e
HSDPA/HSUPA) insieme ad alcuni dei principali multiRAB PS+CS.
7.1
Installazione e autoconfigurazione
del FAP
L’installazione di un Femto Access Point
dovrebbe essere basata su logiche di tipo
NOtIzIarIO tEcNIcO tELEcOM ItaLIa - anno18 NumeroUNO2009
plug&play tese a minimizzare la necessità di
intervento sia da parte del cliente/proprietario, sia da parte dell’operatore (ad esempio
al livello di O&M).
Un possibile esempio di processo di autoconfigurazione potrebbe ad esempio essere:
• selezione della portante FDD (UARFCN):
il FAP sceglie automaticamente la portante
meno interferita;
• selezione del Primary Scrambling Code
(PSC): il FAP sceglie il PSC meno interferito;
• autotuning della potenza trasmessa in
downlink: finalizzato ad ottimizzare il tradeoff tra copertura ed interferenza;
• scelta dei parametri identificativi della cella:
ad es cell-ID, LAI, RAI;
• definizione della lista di adiacenze per la
mobilità (in idle mode e, se prevista, in connected mode) verso la rete macrocellulare.
Si riportano di seguito alcune considerazioni relativamente agli aspetti del processo
di autotuning, che hanno maggiore impatto
53
Femtocelle: la stazione radio dentro casa - camillo carlini, Giulio Guerra, alessandro Vaillant
sui meccanismi di interlavoro e di coesistenza con la rete macrocellulare UMTS.
Per quanto riguarda l’autoconfigurazione
dei PSC è di fondamentale importanza la determinazione del set di PSC riservati alle
femtocelle, che nasce da un trade-off tra le
seguenti condizioni:
• tanto minore è il numero dei PSC riservati
alle femtocelle, tanto maggiore è la probabilità che due FAP mutuamente interferenti
utilizzino lo stesso PSC (situazione critica
dal punto di vista dell’intereferenza tra FAP
dello stesso operatore in trasmissione sulla
stessa portante FDD). Di conseguenza
una crescente penetrazione di femtocelle
(in particolare in ambito residenziale) porta
ad una necessità di un numero di PSC riservati sempre maggiore;
• tanto maggiore è il numero dei PSC riservati alle femtocelle, tanto maggiore è l’impatto sulla pianificazione della rete
macrocellulare.
L’autotuning della potenza in downlink assume particolare rilevanza nel caso in cui i
FAP operino su una portante già utilizzata
dalle macrocelle UMTS. In particolare, tanto
maggiore è il livello di interferenza prodotto
dalle macrocelle, tanto maggiore è il livello
di potenza trasmessa dalla femtocella necessaria a garantire la copertura nell’area indoor target (costituita da una o più stanze).
A valori più elevati di potenza corrisponde,
d’altra parte, una più ampia “deadzone”
(zona di assenza di servizio sulla portante
utilizzata dalla femtocella le cui dimensioni
dipendono, in prima approssimazione, dal
mutuo rapporto di potenza tra cella macro e
femto in quell’area) per gli utenti non abilitati
all’accesso alla femtocella.
Le procedure di autotuning richiedono la
disponibilità, lato FAP, di misure relative alle
caratteristiche delle celle che il FAP stesso
riconosce come interferenti (macrocelle o
altri FAP). Tali misure possono essere ricavate secondo due diversi approcci:
• il FAP raccoglie le misure dei terminali
(connessi al FAP stesso): i terminali ripor-
54
tano (coerentemente allo standard) i PSC
delle celle misurate, le misure di RSCP ed
Ec/No ad essi corrispondenti;
• il FAP è dotato di uno “sniffer”, ossia di uno
scanner UMTS (in grado di effettuare misure di RSCP, RSSI, Ec/No, di individuare
i PSC interferenti ed eventualmente anche
di decodificare le System Info delle celle
misurate), simile a quello tipicamente integrato nei terminali mobili.
7.2
Sincronizzazione
In questo paragrafo si vogliono segnalare
alcune possibilità implementative e problematiche connesse al tema della sincronizzazione degli Home NodeB con il resto
dell’architettura femto-cellulare e la rete
macro.
Gli Home NodeB richiedono una precisa
sincronizzazione con il resto degli elementi
della Core Network per consentire il corretto
funzionamento della rete relativamente agli
aspetti di mobilità. Tale sincronizzazione è
in genere garantita da opportuni clock server dispiegati in rete (altre possibilità potrebbero essere la sincronizzazione tramite
GPS – difficoltosa però in ambiente indoor
– oppure la lettura del canale SCH-Sync
Channel) della macro cella, cui è sottesa la
femtocella, nell’ipotesi in cui la femtocella
sia in copertura.
Con la sincronizzazione tramite clock server è necessario quindi valutare la varianza
della precisione in funzione del jitter sulla
rete IP di backhauling e i requisiti minimi da
soddisfare per garantire un adeguato livello
di affidabilità del clock; in particolare, è importante quindi individuare le location più
adatte (a livello di DSLAM, B-NAS, FAP
concentrator), per il dispiegamento dei clock
server, che garantiscano una certa affidabilità e qualità della sincronizzazione, minimizzando allo stesso tempo il numero di clock
server impiegati.
NOtIzIarIO tEcNIcO tELEcOM ItaLIa - anno18 NumeroUNO2009
Femtocelle: la stazione radio dentro casa - camillo carlini, Giulio Guerra, alessandro Vaillant
traffico voce CS, secondo la prassi Iu-CS
over IP (prassi corrente fino alla completa
definizione dello standard Iu-h).
Il tipico esempio della Tabella 3, riferito a
un caso di backhauling su linea ADSL, mostra alcune peculiarità della tecnologia
femto. Nell’incapsulamento del traffico voce
non vi è conversione di codec; il FAP instaura un tunnel cifrato con l’HNB Gateway,
mediante lo standard IPsec (protocollo IKE
per lo scambio delle chiavi e protocollo ESP
per garantire la confidenzialità, integrità ed
autenticità dei dati trasportati [11]). Il ricorso
al tunnel IPsec tra FAP e HNB Gateway
fonda il suo presupposto sul modello di dispiegamento femtocellulare realizzabile da
un operatore mobile con backhauling su una
Backhauling
rete fissa che l’operatore mobile non può
controllare e deve necessariamente consiOccupiamoci adesso di come i FAP posderare untrusted.
sono incapsulare il traffico originato dai terNel caso di operatore convergente che geminali accampati, per il backhauling verso
stisca anche la rete fissa, facciamo notare
Core Network. Riportiamo in Tabella 3 una
che tecniche di sicurezza normalmente imtipica pila protocollare di encapsulation di
plementate dall’operatore potrebbero rendere opzionale l’impiego di
tabella 3 - Esempio di pila protocollare
IPsec, il quale comporta un notedi encapsulation di traffico voce cS
vole overhead nello stack di
Dimensione del
Tabella 3.
Livello
pacchetto (byte)
L’opportunità della cifratura dei
dati inviati e ricevuti dal FAP può
Payload codec AMR 12.2, 20 ms
30.5
essere considerata anche dal seRTP
12
guente punto di vista: nella rete macrocellulare è garantita la sicurezza
UDP
8
dei dati sia nella tratta di accesso
IP interno
20
radio in aria, sia nella tratta tra
NodeB e RNC. Con riferimento alle
ESP
50
architetture dove il FAP integra
UDP (NAT traversal, RFC 3948)
8
anche funzionalità di RNC, per analogia
al caso macro il FAP doIP esterno
20
vrebbe comunque inviare e
PPP + PPPoE
8
ricevere dati cifrati, perché altriEthernet
18
menti all’interno della LAN a casa
cliente esisterebbe la possibilità di
LLC/SNAP
8
intercettare informazioni “in chiaro”.
AAL5
8
In ogni caso, per avere un’indicazione
quantitativa, l’occupazione di
ATM
20
banda di una chiamata voce tra-
Come protocolli di sincronizzazione tra i
clock server e gli HNB, opzioni tipiche sono
il protocollo IEEE1588 [10] o l’NTP [9];
l’IEEE 1588 richiede sugli apparati di rete
dell’hardware specifico, per cui è più comune l’utilizzo del protocollo NTP.
L’HNB può richiedere una sincronizzazione continua al clock server o, in alternativa, essere dotato di un oscillatore locale
con una buona stabilità (ad esempio non inferiore ad una settimana) e richiedere una
sincronizzazione periodica (per esempio
una volta ogni 4 giorni).
7.3
NOtIzIarIO tEcNIcO tELEcOM ItaLIa - anno18 NumeroUNO2009
55
Femtocelle: la stazione radio dentro casa - camillo carlini, Giulio Guerra, alessandro Vaillant
sportata su un backhaul xDSL secondo Tabella 3 è all’incirca di 80 kb/s. Si noti che
l’adozione del layer “RFC 3948” [14] è resa
obbligatoria dal fatto che moltissimi Home
Gateway, cui potrebbero essere connessi i
FAP, applicano meccanismi di NAT.
Un altro aspetto interessante per l’architettura femto è il remote management dei FAP
a casa cliente; il concept femto tende a minimizzare l’intervento da remoto del gestore,
ma il FAP deve essere telegestibile dall’operatore al pari degli altri dispositivi del cliente.
Nel luglio 2008 il Femto Forum ha annunciato
che i suoi membri hanno deciso di adottare il
Broadband Forum TR-069 “CPE WAN Management Protocol” come base per le procedure
di telegestione dei FAP. Femto Forum e Broadband Forum hanno quindi cominciato a collaborare per definire estensioni a TR-069
specifiche per le funzionalità dei FAP, e per
includere l’O&M delle femtocelle in un framework ben consolidato.
8
I punti aperti della tecnologia
Accanto ai numerosi vantaggi derivanti
dall’adozione della tecnologia femtocellulare,
ci sono una serie di problematiche che vanno
prese in considerazione derivanti dall’inserimento in una rete pre-esistente.
In primo luogo, essendo tali dispositivi
orientati alla realizzazione di una copertura
capillare indoor, è lecito prevedere, da parte
del generico operatore un deployment su
larga scala, a differenza della quantità di
NodeB attualmente presente in una rete
macro. La potenziale numerosità delle femtocelle rende pertanto necessario integrare
in rete nuovi elementi controllori, in grado di
mascherare tale numerosità, come analizzato nel paragrafo sulle architetture di rete.
Inoltre, dal punto di vista dello standard, attualmente sono molte le decisioni già prese
ed i nodi tecnologici sciolti; tuttavia il percorso
56
che conduce ad uno standard completo non
si è concluso e si stima che le prime specifiche 3GPP potranno essere disponibili nel
corso del 2009. Nel biennio 2009-2010, pertanto, potranno iniziare le prime installazioni
commerciali di soluzioni interamente standard a cura dei grandi operatori europei.
Infine, i problemi tecnologici ancora aperti
riguardano aspetti del sistema, che spaziano
dall’O&M, alla gestione della risorsa radio,
alla gestione della mobilità. Richiamiamo alcuni tra i principali:
Aspetti di integrazione in rete
• coesistenza layer femto vs. layer macro per
interferenza (soprattutto nel caso di utilizzo
della stessa portante radio);
• modalità di dispiegamento della tecnologia
in funzione degli scenari di servizio abilitati
(PLMN, LAC, frequenze, parametri radio) e
del paradigma di controllo d’accesso (es
open o closed);
• garanzia di portabilità dell’intero parco di
servizi mobili del generico operatore;
• ingegnerizzazione della soluzione per la
gestione di problematiche quali la scalabilità, la ridondanza, la ripartizione del traffico
da smaltire in rete;
• le verifiche di interoperabilità in ambiente
multivendor;
• i processi di provisioning ed assurance del
servizio.
Handover
• anche nella prospettiva di medio termine,
mentre è ragionevole che tale funzionalità
sia assicurata nella direzione da femtocella
a macrocella, l’handover da macrocella a
femtocella, o handover tra femtocella e
femtocella, presentano vincoli implementativi che la possono limitare, eventualmente,
solo a specifici scenari di servizio (clientela
corporate/business).
Controllo d’accesso
• le soluzioni di controllo dell’accesso per terminali pre-Release 8 non sono ottimizzate,
NOtIzIarIO tEcNIcO tELEcOM ItaLIa - anno18 NumeroUNO2009
Femtocelle: la stazione radio dentro casa - camillo carlini, Giulio Guerra, alessandro Vaillant
essendo state definite per ambienti con accessi di tipo “open” (macro, micro, pico).
Per implementare l’access control per una
femtocella una tipica soluzione si ha con la
gestione della mobilità in idle mode: ad ogni
femtocella è assegnata una specifica Location Area. Gli utenti non abilitati all’accesso
ricevono una risposta di Reject in fase di
Location Area Update e, come effetto, non
potranno accamparsi su tali Home NodeB.
Questi meccanismi possono tuttavia presentare dei comportamenti differenti a seconda del terminale e in funzione della
configurazione di rete e quindi richiedono
una particolare attenzione da parte dell’operatore. D’altro canto le nuove soluzioni
di controllo per terminali di Release 8 sono
ancora in via di completamento in standard;
in ogni caso queste non possono essere
retrocompatibili con i terminali compliant
alle Release precedenti dello standard, pertanto occorrerà mantenere anche le soluzioni sub-ottime di controllo d’accesso.
Qualità del Servizio
• le femtocelle introducono nuove problematiche per la gestione della QoS dovute alla
condivisione del trasporto con altri dispositivi connessi alla xDSL del cliente. Al contrario delle reti 2G e 3G legacy dove il
trasporto era dedicato, nel paradigma femtocellulare si pone il problema di un’opportuna gestione delle classi di servizio in un
(possibile) scenario di coesistenza tra servizi fissi e servizi mobili. Allo scopo di garantire la QoS anche a livello di
backhauling, è necessario definire opportune priorità tra traffico di tipo “fisso” e “mobile” così come tra traffico voce e dati.
9
ambienti indoor e per incrementare il bit rate
offerto al singolo cliente, e, come abbiamo
visto nell’articolo, comportano inoltre molteplici benefici. Esse si prestano a favorire lo
sviluppo dell’ecosistema domestico della
banda larga e dell’utilizzo di servizi BWA fruibili da terminali mobili sempre più completi.
La maturità della tecnologia potrebbe permettere i primi deployment commerciali di
femtocelle tra questo anno ed il prossimo.
Tuttavia la tecnologia femtocellulare è chiamata a superare le sfide della piena standardizzazione e dell’integrazione nelle reti reali
degli operatori (anche per gli aspetti interferenziali). L’operatore convergente che introdurrà questa tecnologia dovrà, per
soddisfare le aspettative degli utenti, porre
particolare attenzione nella gestione del backhaul (xDSL o fibra) a disposizione della
femtocella, per garantire ad essa e a tutti i
servizi domestici del cliente la miglior QoS.
A
Conclusioni
Le femtocelle sono state concepite per migliorare la qualità dell’accesso radio negli
NOtIzIarIO tEcNIcO tELEcOM ItaLIa - anno18 NumeroUNO2009
CRONIMI
3GPP
APN
BWA
CPE
CS
DCH
DL
EIRP
3rd Generation Partnership Project
Access Point Name
Broadband Wireless Access
Customer Premises Equipment
Circuit Switched
Dedicated CHannel
Down Link
Effective Isotropically Radiated
Power
FAP
Femto Access Point
FDD
Frequency Division Duplexing
GAN
Generic Access Network
HNB
Home NodeB
HSDPA High Speed Downlink Packet Access
HSPA High Speed Packet Access
HSUPA High Speed Uplink Packet Access
IMSI
International Mobile Subscriber
Identità
57
Femtocelle: la stazione radio dentro casa - camillo carlini, Giulio Guerra, alessandro Vaillant
LAC
NAS
PS
PSC
QoS
RAB
RANAP
Location Area Code
Non Access Stratum
Packet Switched
Primary Scrambling Code
Quality of Service
Radio Access Bearer
Radio Access Network Application
Part
RRM
Radio Resource Management
RSCP Received Signal Code Power
SAC
Service Area Code
UE
User Equipment
UL
Up Link
UMA
Unlicensed Mobile Access
UMTS Universal Mobile Telecommunications System
WCDMA Wideband Code Division Multiple
Access
B
IBLIOGRAFIA
[1] 3GPP TR 25.820 V2.0, 3G Home NodeB
Study Item Technical Report (Rel. 8)
[2] 3GPP TS 25.304 User Equipment (UE) procedures in idle mode and procedures for cell
reselection in connected mode.
[3] 3GPP TR R3.020 “Home (e)NodeB; Network aspects - (Release 8)”
[4] Femto Forum: WG3 Network & Interoperation Architecture Evolution (March 2008)
[5] Femto Forum WG 3 “LS to 3GPP2 on Femto
Reference Architecture”
[6] R3-080698 “3G HNB Access Network Consideration Architecture Considerations” Kineto, NEC, Motorola
[7] R3-080105 “GAN Variant of Iu-based 3G
HNB architecture” Kineto, NEC, Motorola
[8] R3-080605 “Comparison between GAN and
Iu-based variants” Alcatel Lucent, Huawei
[9] RFC 1305, “Network Time Protocol Specification, Implementation and Analysis”, IETF,
Marzo 1992
[10] IEEE Standard 1588, “Precision Clock Syn
chronization Protocol for Networked Measurement and Control Systems”, IEEE Institute, Gennaio 2005
[11] RFC 4301, “Security Architecture for the Internet Protocol”, IETF, Dicembre 2005
[12] RFC 3948, “UDP Encapsulation of IPsec
ESP Packets”, IETF, Gennaio 2005
[13] 3GPP TS 25.467 V8.0.0, UTRAN architecture for 3G Home NodeB Stage 2 (Rel. 8)
[14] 3GPP TS 25.468 V8.0.1, UTRAN Iuh Interface RANAP User Adaption (RUA) signalling
(Rel. 8)
[15] 3GPP TS 25.469 V8.0.0, UTRAN Iuh interface Home Node B Application Part
(HNBAP) signalling (Rel. 8)
[16] 3GPP TS 25.104 V8.5.0, Base Station (BS)
radio transmission and reception (FDD)
(Rel. 8)
[email protected]
[email protected]
[email protected]
58
NOtIzIarIO tEcNIcO tELEcOM ItaLIa - anno18 NumeroUNO2009
Femtocelle: la stazione radio dentro casa - camillo carlini, Giulio Guerra, alessandro Vaillant
A
UTORI
camillo carlini
Giulio Guerra
alessandro Vaillant
laureato in Ingegneria Elettronica, nel 2006 entra in Telecom Italia, dove si occupa
dell’ingegnerizzazione di servizi e prodotti innovativi per la
Customer Network, sia residenziale che business. È oggi
particolarmente impegnato
nella definizione di servizi di
Convergenza Fisso-Mobile per
la clientela SME e Corporate ■
laureato in Ingegneria delle Telecomunicazioni, nel 2002
viene assunto in TIM per occuparsi di collaudi di sistemi radioelettrici. Dal 2002 al 2005
ha ricoperto il ruolo di delegato
per il gruppo di standardizzazione 3GPP TSG-SA WG2 nel
Working Group dedicato alle
Interworking Wireless LAN. La
competenza trasversale acquisita sulle tecnologie radiomobili, unita al background
maturato in ambito networking,
lo portano ad operare dal 2005
in TILab con il compito di presidiare lo scouting e l’ingegnerizzazione delle tecnologie
convergenti fisso-mobili ■
laureato con lode in Ingegneria
delle Telecomunicazioni, dal
2001 in Azienda, opera nell’area di Wireless Innovation di
TILab. In ambito internazionale
ha partecipato al progetto europeo ARROWS (Advanced
Radio Resource Management
of Wireless Access) e, dal
2005 al 2007, ha ricoperto il
ruolo di delegato per il gruppo
di standardizzazione 3GPP
RAN WG2. Dal 2007 svolge,
lato internazionale, attività di
consulenza nei progetti
NETEP rivolti agli operatori
dell’America Latina. È anche
impegnato nell’analisi e ottimizzazione delle reti di accesso di terza generazione e
loro evoluzioni (MBMS,
HSDPA, HSUPA, HSPA evolution, LTE). É inoltre referente
delle attività sull’interfaccia
radio nell’ambito del progetto
“Valutazione ed analisi delle
prestazioni di sistema di tecnologie per accesso radio e loro
evoluzioni” ■
NOtIzIarIO tEcNIcO tELEcOM ItaLIa - anno18 NumeroUNO2009
59
trasm_ottica:Layout_NT 06/03/2009 11.53 Pagina 60
L’evoLuzione deLLa
trasmissione ottica
TECNOLOGIE
L’
Sergio Augusto, Valentina Brizi, Rossella Tavilla
obiettivo di questo lavoro è quello di descrivere lo stato dell’arte
delle tecnologie della trasmissione e di tracciarne un possibile scenario
evolutivo. Per far questo si farà ricorso alla descrizione delle due
dimensioni fondamentali dello sviluppo: la componente puramente
tecnologica della trasmissione e quella dei rapporti complessi con gli
strati di rete superiori ed in particolare con le reti a pacchetto.
1
Introduzione
Nell’ultimo decennio le architetture, le tecnologie e le funzionalità della rete trasmissiva di Telecom Italia sono significativamente
cambiate, a seguito dei nuovi requisiti dei
servizi a pacchetto e della crescita del traffico. L’obiettivo è stato quello di modificare le
piattaforme di rete ottimizzate per il trasporto
di servizi a circuito in strutture innovative in
grado di trasportare efficientemente i nuovi
servizi IP.
Questo processo evolutivo è stato ed è
tuttora governato dai seguenti principi: fare
un uso efficiente delle risorse di rete ottimizzando gli investimenti, rendere automatiche
60
alcune funzionalità di rete riducendo i costi e
sfruttare i vantaggi offerti dalle nuove tecnologie che consentono di realizzare maggiori
capacità a minor costo.
2
Lo stato dell’arte e l’evoluzione
delle tecnologie trasmissive ottiche
Nel gergo delle trasmissioni c’e’ una sottile
differenza semantica tra i termini “trasmissione ottica” e “trasmissione fotonica” o, più
in generale, semplicemente “fotonica”. Entrambi si riferiscono alla trasmissione su fibra
NOTIzIarIO TECNICO TELECOm ITaLIa - anno18 NumeroUNO2009
trasm_ottica:Layout_NT 06/03/2009 11.53 Pagina 61
L’evoluzione della trasmissione ottica - Sergio augusto, Valentina Brizi, rossella Tavilla
ottica, ma quando si parla di fotonica si lascia intendere che non ci sia solo la trasmissione, ma qualcosa di più. Ed in effetti è
vero. Ad esempio un apparato SDH è certamente un apparato ottico in quanto è equipaggiabile con trasmettitori (laser) e ricevitori
(fotodiodi) per la trasmissione su fibra, ma la
sua principale caratteristica è quella di trattare i segnali nel dominio elettronico: per
svolgere le sue funzioni, come ad esempio
la multiplazione TDM, l’instradamento dei circuiti, la loro protezione o l’ottimizzazione
dell’uso della banda, deve, di necessità, trasformare il segnale da ottico a elettrico e poi
in ottico per trasmetterlo nuovamente. Un
apparato fotonico, al contrario, è un apparato
che non solo è in grado di trasmettere segnali su fibra ottica, ma può svolgere le sue
funzioni lasciando il segnale nel dominio ottico, o meglio, fotonico. Questa sottile ma essenziale distinzione è utile per ricordare
velocemente i momenti fondamentali della
storia della trasmissione fotonica e per cercare di identificare alcuni possibili scenari
evolutivi.
2.1
Lo stato dell’arte delle tecnologie
ottiche: il WDM
Fin dalle sue prime applicazioni nei primi
anni ’80 la trasmissione su fibra ottica, inizialmente a singolo canale, ha dimostrato
tutti i suoi enormi vantaggi ed oggi la possibilità di trasmettere su una singola coppia di
fibre decine di canali (tipicamente 80) ciascuno ad altissimo bitrate (40 Gbit/s già ora
e 100 Gbit/s nei prossimi due o tre anni) fa
sì che la trasmissione multicanale in fibra sia
un elemento indispensabile per la realizzazione di qualunque infrastruttura di rete per
le telecomunicazioni.
L’obiettivo principale dell’evoluzione dei sistemi di trasporto su fibra ottica è stato inizialmente quello di superare i limiti fisici della
trasmissione su cavo coassiale in termini di
NOTIzIarIO TECNICO TELECOm ITaLIa - anno18 NumeroUNO2009
massimo bitrate applicabile ed è poi diventato quello di ridurre, quanto più possibile, il
costo del singolo bit trasportato. Questo
obiettivo lo si è raggiunto su tutte le sezioni
di rete: dapprima sulla lunga distanza e poi
nelle aree regionali e metropolitane.
Le reti di lunga distanza sono state le
prime a beneficiare dei vantaggi offerti dalla
trasmissione a multi-lunghezza d’onda
(WDM-Wavelength Division Multiplexing): un
singolo amplificatore ottico bidirezionale sostituiva una molteplicità di rigeneratori elettro-ottici (indicati spesso come rigeneratori
3R 1). Non solo quindi si risparmiavano costose e rare fibre tra una città e l’altra, ma si
riduceva drammaticamente il numero di apparati. Già alla fine degli anni ’90 i sistemi
DWDM (Dense WDM) rappresentavano
quindi la scelta obbligata per la realizzazione
delle reti trasmissive di lunga distanza.
In ambito regionale e metropolitano la ricerca di fibre libere era meno critica e, date
le distanze in gioco, la rigenerazione elettroottica meno necessaria: i sistemi DWDM
raggiunsero quindi questa sezione di rete
con qualche anno di ritardo. Nei primi anni
del nuovo millennio il ridotto costo dell’amplificazione ottica, ma anche la possibilità di
trasportare segnali altrimenti non trasportabili dai sistemi tradizionali SDH (ad esempio
quelli originati dai sistemi di Storage per il Disaster Recovery) furono l’impulso principale
per l’introduzione dei sistemi DWDM anche
nelle aree regionali e metropolitane.
Da ultimo, la sezione più periferica della
rete, quella nota come Metro-Access, è diventata il palcoscenico dove si esibisce l’ultima nata delle tecnologie di trasporto in fibra
multi canale: il CWDM. Nonostante sia la più
semplice, perché in grado di trasportare un
numero limitato di canali a bitrate ridotto
(massimo 16 canali a 10 Gbit/s) per distanze
limitate (massimo 50 km), in quanto non fa
uso di amplificazione ottica, il suo grande
1 Le 3 R significano: Ri-Amplificazione, Ri-Costruzione della
forma dell’impulso e Ri-Sincronizzazione.
61
trasm_ottica:Layout_NT 06/03/2009 11.53 Pagina 62
L’evoluzione della trasmissione ottica - Sergio augusto, Valentina Brizi, rossella Tavilla
successo deriva dal suo bassissimo costo. Il
CWDM è diventato quindi la soluzione trasmissiva primaria adottata dagli Operatori
per raccogliere e proteggere le grandi quantità di traffico dati (tipicamente sotto forma di
segnali ethernet) generate sia dalla clientela
di rete fissa (ADSL, IPTV) sia da quella di
rete mobile divenendo uno degli elementi
della convergenza fisso-mobile.
2.2
Le evoluzioni previste: l’aumento del
bitrate e della flessibilità
Le due principali strade ad oggi prevedibili
per l’evoluzione della trasmissione WDM
sono la crescita del bitrate di ciascun segnale, con associata la crescita delle prestazioni in termini di massima distanza
raggiungibile senza rigenerazione elettro-ottica, e l’introduzione di funzionalità di commutazione dei circuiti a livello fotonico senza
conversioni elettro-ottiche.
2.2.1
Verso la trasmissione multicanale a
100 Gbit/s
Il passaggio da canali ottici a 2,5 Gbit/s a
canali ottici 10 Gbit/s, avvenuto alla fine degli
anni '90, è stato giustificato da due esigenze:
aumentare la capacità trasmissiva della rete
e ridurre i costi. In quel passaggio vi erano
due sfide tecniche da superare: la compensazione della dispersione e l'effettuazione di
misure per la caratterizzazione delle fibre
prima della progettazione dei singoli collegamenti [8]. A questo si aggiungeva la complessità della tecnologia ed il maggior costo
(circa cinque volte quello del 2,5 Gbit/s). Nonostante queste difficoltà iniziali i sistemi con
canali a 10 Gbit/s sono decollati e oggi costituiscono la quasi totalità della rete nazionale. Questi progressi della tecnologia ed il
62
numero sempre maggiore di sistemi venduti
ha portato gradualmente a limitare a 2,5
volte il maggior costo dei 10 Gbit/s rispetto
quello dei 2,5 Gbit/s. Attualmente sulla rete
nazionale di Telecom Italia tutti i nuovi canali
sono realizzati con trasmissione di linea a 10
Gbit/s.
Un’evoluzione simile a quella sopra descritta per il passaggio da 2,5 Gbit/s a 10
Gbit/s è stata finora pronosticata per quello
da 10 Gbit/s a 40 Gbit/s. Dopo il consolidamento della tecnologia e dei progetti, durato
circa 10 anni, il sistema a 40 Gbit/s è oggi
commercialmente disponibile. Le problematiche tecniche associate all'impiego della tecnologia a 40 Gbit/s sembrano quindi oramai
ben comprese e risolte. La dispersione di polarizzazione (PMD), che è sicuramente il fattore limitante di maggiore importanza per i
40 Gbit/s e condiziona la massima distanza
raggiungibile senza rigenerazione elettrica,
porta ad escludere la possibilità di realizzare
canali a 40 Gbit/s su fibre che hanno una
PMD>0,5 ps/√km. Le fibre con PMD<0,2
ps/√km possono essere in generale considerate adatte, mentre non pongono alcun
problema quelle con PMD<0,1 ps/√km. In effetti, con i nuovi formati di modulazione sempre più sofisticati si possono usare tutte le
fibre ed è quello che stanno facendo tutti gli
Operatori nord-americani (i primi a utilizzare
in modo massiccio canali a 40 Gbit/s).
Nel dicembre 2006 l'IEEE 802.3 Higher
Speed Study Group ha votato una mozione
per l'adozione della frequenza di cifra 100
Gbit/s come la prossima velocità per Ethernet e l’ITU-T ha già definito la struttura del
segnale digitale per il suo trasporto, ampliando la Raccomandazione G.709 con la
definizione di un contenitore a 112 Gbit/s.
L’IEEE dovrebbe terminare la specifica a giugno 2010. E’ interessante osservare che per
la prima volta nella storia delle trasmissioni
il salto gerarchico (da 10 a 100) corrisponda
a una decuplicazione e non ad una quadruplicazione: è l’Ethernet che domina gli sviluppi anche sulle reti di trasporto.
NOTIzIarIO TECNICO TELECOm ITaLIa - anno18 NumeroUNO2009
trasm_ottica:Layout_NT 06/03/2009 11.53 Pagina 63
L’evoluzione della trasmissione ottica - Sergio augusto, Valentina Brizi, rossella Tavilla
In linea di principio le
difficoltà per passare
da una trasmissione a
40 Gbit/s ad una a 100
Gbit/s si dovrebbero
presentare simili a
quelle incontrate per
passare da 10 Gbit/s a
40 Gbit/s. Tuttavia l'innovazione tecnologica
potrebbe consentire di
ridurle ulteriormente
con l'adozione di formati di modulazione ottica multilivello (che
modulano non solo
l’ampiezza del segnale emesso dai laser ma
anche la sua fase istantanea), come il
DQPSK. Un formato di questo tipo dimezza
la frequenza di simbolo (ogni simbolo
DQPSK rappresenta infatti 2 bit) e riporta le
problematiche legate alle degradazioni dovute alla trasmissione su fibra ad un livello
simile a quello del 40 Gbit/s (si passa da 100
Gbit/s a 50 Gbaud/s). Il formato di modulazione più promettente, anche se il più costoso, è però quello che sfrutta anche la
diversità di polarizzazione detto
DP-DQPSK (Dual Polarization
DQPSK), che riduce ulteriormente
il ritmo di trasmissione dei simboli.
In sostanza in trasmissione il
flusso a 100 Gbit/s viene suddiviso in due flussi a 50 Gbit/s ciascuno dei quali modula in DQPSK
due portanti ottiche con polarizzazioni ortogonali. Le difficoltà trasmissive (non certo quelle della
realizzazione dei trasmettitori e
dei ricevitori che crescono notevolmente) si riducono quindi a
quelle incontrate per trasportare
Figura 1 - Crescita della capacita` del singolo
canale ottico e le principali tecnologie utilizzate
(Fonte: alcatel-Lucent)
un segnale di “soli” 25 Gbaud/s. In figura 1 e
figura 2 si riportano alcuni dati relativi alle
prestazioni dei sistemi di trasmissione. Si osservi che un elemento fondamentale per la
crescita del bitrate dei segnali è il meccani-
Figura 2 - Esempi di massime
prestazioni trasmissive di sistemi
multicanale (Fonte: alcatel-Lucent)
NOTIzIarIO TECNICO TELECOm ITaLIa - anno18 NumeroUNO2009
63
trasm_ottica:Layout_NT 06/03/2009 11.53 Pagina 64
L’evoluzione della trasmissione ottica - Sergio augusto, Valentina Brizi, rossella Tavilla
smo di correzione di errore noto come Forward Error Correction (FEC). Negli apparati
WDM, la funzione FEC è realizzata da un
codificatore nel trasmettitore che “legge” i bit
di dati e aggiunge bit/simboli di ridondanza
opportunamente calcolati, producendo un
flusso a più alto bitrate e da un decodificatore FEC nel ricevitore che attua la correzione d’errore, estraendo la ridondanza ed
elaborando i bit di dati come previsto dall’algoritmo. Il codificatore (encoder) e decodificatore (decoder) FEC sono integrati nei
transponder, rispettivamente, di trasmissione
e di ricezione.
2.2.2
La flessibilità: le reti “All Optical”
e i nodi ROADM Multidegree
In ogni rete trasmissiva la componente di
costo più significativa è quella associata ai
trasmettitori e ai ricevitori ottici, i cosiddetti
transponder, i cui elementi principali sono i
laser sintonizzabili in lunghezza d’onda e i
fotodiodi di ricezione. Ad esempio in una rete
trasmissiva a multilunghezza d’onda, come
quella italiana, la quota parte destinata ai trasmettitori e ai ricevitori può raggiungere il 6070% del costo dell’intera rete (70-80% per le
Figura 3 - Confronto tra rete Opaca
(a) e rete trasparente aON (b).
I quadratini indicano la rigenerazione
elettro-ottica (3r). Il canale rosso
nel caso di rete Opaca deve essere
rigenerato in un nodo dove non e`
terminato.
64
reti più vecchie). Esistono due modi per ridurre questo costo: utilizzare solo i transponder strettamente necessari e cioè quelli
equipaggiati al bordo della rete, riducendo il
più possibile quelli necessari alla rigenerazione intermedia del segnale, oppure ridurre
il costo dei transponder stessi. Il primo obiettivo è quello che i costruttori cercano di raggiungere, migliorando le prestazioni
trasmissive dei sistemi ed approssimando la
realizzazione di reti tutte ottiche, le All Optical Network (AON).
In figura 3 è rappresentata schematicamente la differenza fondamentale tra una
rete AON e una Rete Opaca [7]. Le reti AON
garantiscono la trasparenza sia al contenuto
digitale del segnale, sia alla forma d’onda
analogica (il segnale emesso dai laser),
mentre le Reti Opache garantiscono la sola
trasparenza al contenuto digitale: la rigenerazioni elettro-ottica (schematizzata dai quadratini neri di figura 3) interrompe la
continuità dei segnali emessi dai laser, ricostruendone la forma ed eliminando il rumore
introdotto dagli amplificatori ottici e tutte le
degradazioni dovute alla propagazione in
fibra ottica lungo il percorso. Nel seguito descriveremo brevemente lo stato dell’arte
delle tecnologie per la realizzazione delle reti
di tipo AON.
Per poter garantire la trasparenza totale
(forma d’onda analogica del segnale e contenuto digitale) è necessario aggiungere,
NOTIzIarIO TECNICO TELECOm ITaLIa - anno18 NumeroUNO2009
trasm_ottica:Layout_NT 06/03/2009 11.53 Pagina 65
L’evoluzione della trasmissione ottica - Sergio augusto, Valentina Brizi, rossella Tavilla
Figura 4 - Schema funzionale di un WSS in grado di commutare i segnali luminosi in base
alla loro lunghezza d`onda (frequenza) (Fonte: Huawei)
oltre al semplice trasporto DWDM, anche la
funzione di commutazione delle singole lunghezze d’onda e introdurre quindi le cosiddette matrici fotoniche, note come
Wavelenght Selective Switch (WSS), il cui
schema funzionale è riportato in figura 4.
I WSS sono in grado di permutare una singola lunghezza d’onda da una fibra di in-
Figura 5 - Il cuore di una matrice ottica:
struttura di uno WSS basato su
specchi mEmS (Fonte: Huawei)
NOTIzIarIO TECNICO TELECOm ITaLIa - anno18 NumeroUNO2009
gresso ad una qualunque fibra di uscita o viceversa e in generale si parla di WSS 1xN o
Nx1 a seconda del verso dei segnali (da una
fibra di ingresso a N fibre di uscita o viceversa).
Esistono diverse tecnologie per la realizzazione dei WSS; le più diffuse sono la tecnologia MEMS 2 (Micro-Electro Mechanical
Systems), quella dei Cristalli Liquidi (Liquid
Crystal – LC), dei Cristalli Liquidi su Silicio
(LCoS) e dei Planar Lightwave Circuit (PLC).
2 http://www.memsnet.org/mems/what-is.html
65
trasm_ottica:Layout_NT 06/03/2009 11.54 Pagina 66
L’evoluzione della trasmissione ottica - Sergio augusto, Valentina Brizi, rossella Tavilla
Figura 6 - Un array di specchi mEmS fabbricati in
silicio con processi litografici (a).
L`orientamento di ciascuno specchio (b) determina la
direzione, e quindi la fibra, di uscita del segnale
l’elemento base per la realizzazione di nodi
fotonici, o meglio di veri e proprio cross-connect, in grado di instradare e reinstradare
singoli canali ottici indipendentemente dal bitrate e dal loro contenuto digitale.
L’elemento di rete necessario a
costruire una rete AON che
sfrutta le funzionalità messe a disposizione dai WSS è il cosiddetto ROADM, Reconfigurable
Optical Add Drop Multiplexer.
In figura 7 è rappresentata l’architettura semplificata di un nodo
ROADM. Si osservi che è stato
indicato un solo verso di trasmisAttualmente la tecnologia utilizzata per i prodotti commerciali più performanti è
quella dei MEMS. La figura
5 e la figura 6 descrivono il
funzionamento di una matrice ottica basata sui
MEMS.
I WSS, ormai commercialmente disponibili, sono
66
Figura 7 - architettura semplificata di un generico rOaDm
NOTIzIarIO TECNICO TELECOm ITaLIa - anno18 NumeroUNO2009
trasm_ottica:Layout_NT 06/03/2009 11.54 Pagina 67
L’evoluzione della trasmissione ottica - Sergio augusto, Valentina Brizi, rossella Tavilla
sione ed inoltre, per semplicità grafica, non
compaiono i collegamenti a maglia completa
tra tutti i WSS. L’utilizzo di transponder e filtri
(all’interno dei demultiplatori – demux in figura 7) sintonizzabili garantisce che il nodo
sia in grado di instradare qualunque canale
verso qualunque direzione; si parla in questo
caso di nodi “colourless” e “directionless”.
Ad oggi i WSS basati su MEMS commercialmente disponibili sono del tipo 1x9: è
possibile quindi costruire ROADM con 8 vie
o gradi uscenti. Si osservi che su ciascuna
delle vie possono viaggiare fino ad 80 canali
(in alcuni casi 160) a 40 Gbit/s: la capacità
totale gestita da ciascun nodo è quindi
enorme (nel caso dei 160 canali si raggiungono i 50 Tbit/s).
2.3
La fotonica integrata:
un’opportunità tecnologica
Come detto, in ogni rete trasmissiva la
componente di costo più significativa è
quella associata ai trasmettitori e ai ricevitori
ottici. Un modo alternativo alla realizzazione
di reti AON è quello di ridurre il costo dei
transponder e più in generale della conversione elettro-ottica. Tale obiettivo è uno tra i
tanti che si prefigge la nascente e molto promettente tecnologia della fotonica integrata
o dei cosiddetti Photonic Integrated Circuit
(PIC). In questo paragrafo descriveremo la
tecnologia dei PIC e la sua applicazione alla
realizzazione di Reti Opache o come sempre
più spesso sono indicate Digital Optical Network (DON).
Il termine “ottica integrata” compare per la
prima volta nel 1969 in un articolo apparso
su The Bell System Technical Journal intitolato “Integrated Optics: an introduction”, ma
ci sono voluti più di trenta anni perché le sue
prime applicazioni vedessero la luce. La
prima legge di Moore 3 per la fotonica sta infatti iniziando ad essere applicabile adesso:
NOTIzIarIO TECNICO TELECOm ITaLIa - anno18 NumeroUNO2009
i fornitori di sistemi e sottosistemi sono lì
dove erano, nel 1968, Gordon Moore e Robert Noyce quando fondarono l’Intel ed iniziarono a costruire i primi circuiti integrati.
Nel 1971 il microprocessore 4004 dell’Intel
conteneva già 2300 transistor, mentre oggi il
più sofisticato PIC contiene al più 100 elementi o funzioni fotoniche.
Il motivo principale di questo ritardo è dovuto al fatto che le applicazioni per la fotonica integrata erano all’epoca molto rare.
Inoltre per integrare oggetti in grado di manipolare fotoni ed elettroni anziché solo elettroni, come nel caso dei circuiti integrati
tradizionali, sono necessari molti materiali diversi e non solo il silicio.
Oggi il mercato dei PIC sta crescendo velocemente e tutti i maggiori fornitori di sistemi
e di sottosistemi stanno lavorando in questo
campo, aprendo la strada ad un gran numero di applicazioni. Intel stessa ha dichiarato recentemente 4 che la fotonica integrata
sarà l’elemento fondante di qualunque chip
costruito in futuro.
Gli elementi integrabili in un PIC sono le
sorgenti laser, le guide d’onda, i filtri, gli accoppiatori, i modulatori, i rivelatori, i substrati
per l’assemblaggio e, ovviamente, l’intelligenza dei microprocessori, come indicato
nella figura 8.
L’applicazione principale della fotonica integrata e quella che più ci interessa per gli
scopi di questo articolo è ormai commercialmente disponibile da qualche anno. Essa
consiste nella realizzazione di PIC che integrano la funzione di multiplazione, demultiplazione, trasmissione e ricezione multicanale a 10 Gbit/s (e a breve anche a 40 Gbit/s
e a 100 Gbit/s). Per avere un’idea qualitativa
del risparmio ottenibile si osservi che i due
circuiti integrati in figura 10 implementano le
funzioni fotoniche equivalenti a quelle dei 10
3 Prima Legge di Moore: la complessità e la potenza dei circuiti integrati sono destinate a raddoppiare a intervalli regolari, tipicamente 18 mesi.
4 http://www.intel.com/go/sp/
67
trasm_ottica:Layout_NT 06/03/2009 11.54 Pagina 68
L’evoluzione della trasmissione ottica - Sergio augusto, Valentina Brizi, rossella Tavilla
Figura 8 - Elementi fotonici
(e non solo) integrabili su silicio
(Fonte: Intel)
Figura 9 - Ogni transponder e` composto attualmente da molti elementi non integrati.
68
NOTIzIarIO TECNICO TELECOm ITaLIa - anno18 NumeroUNO2009
trasm_ottica:Layout_NT 06/03/2009 11.54 Pagina 69
L’evoluzione della trasmissione ottica - Sergio augusto, Valentina Brizi, rossella Tavilla
Figura 10 - a sinistra il PIC con il demultiplatore DWDm e 10 ricevitori a 10 Gbit/s,
sotto il PIC con il multiplatore DWDm e 10
trasmettitori a 10 Gbit/s (10 laser e 10 modulatori), a destra le dimensioni
(Fonte: Infinera)
2.4
transponder sintonizzabili in lunghezza
d’onda di figura 9 più le funzioni di multiplazione e demultiplazione per tutti e 10 i canali
a 10 Gbit/s. I due PIC insieme garantiscono
quindi la trasmissione multicanale di 100
Gbit/s e si prevede che entro il 2020 saranno
disponibili PIC in grado di gestire fino a
4 Tbit/s.
Oltre all’indubbio vantaggio di ridurre il
costo della rigenerazione e di facilitare quindi
la realizzazione di reti fotoniche complesse,
evitando di dover realizzare collegamenti
molto lunghi non rigenerati, l’introduzione
della fotonica integrata rende disponibili
punti di accesso al segnale in transito per la
verifica della qualità digitale (e non solo della
potenza del segnale ottico come succede
nelle reti AON) o per la realizzazione di funzioni più sofisticate.
NOTIzIarIO TECNICO TELECOm ITaLIa - anno18 NumeroUNO2009
La trasparenza al contenuto
digitale: l’OTN
Indipendentemente da come sia realizzata
una rete ottica a multilunghezza d’onda
(AON o Opaca), per realizzare la trasparenza al contenuto digitale, che, come detto
precedentemente, è richiesta in tutte e due
le architetture, è stato necessario standardizzare una nuova gerarchia numerica nota
come Optical Transport Hierarchy (OTH). Le
reti Opache e le AON5, che fanno uso di questa nuova gerarchia numerica si dicono Optical Transport Network (OTN) ed il loro
modello astratto è definito nella Raccomandazione ITU G.872 "Architecture for the Optical Transport Network (OTN)” (in realtà in
ITU-T è ancora in discussione se estendere
la G.872, inizialmente pensata per le sole
Reti Opache, anche alle AON o fare una
nuova Raccomandazione).
5 Si osservi infatti che anche in una AON ai bordi è necessario raccogliere il segnale da trasportare (il segnale
Cliente) e trattarlo in modo da renderlo compatibile con il
trasporto ottico.
69
trasm_ottica:Layout_NT 06/03/2009 11.54 Pagina 70
L’evoluzione della trasmissione ottica - Sergio augusto, Valentina Brizi, rossella Tavilla
L’Optical Transport Network è poi completamente definita da un insieme di Raccomandazioni sviluppate in ambito ITU-T (le
principali sono la G.872, G.709 e la G.798).
L’obiettivo principale è quello di costruire una
rete in grado di trasportare in modo trasparente segnali TDM a bitrate costante (Constant Bit Rate – CBR) garantendone al
tempo stesso la gestione e il monitoraggio
digitale (e non solo quello ottico). La storia
di questo standard è abbastanza curiosa; il
lavoro va avanti ormai da circa dieci anni, ma
le applicazioni reali rimangono in numero
molto ridotto. La causa principale è stata la
forte riduzione degli investimenti che si è
avuta a seguito dello scoppio della “bolla tecnologica” dal 2001 in poi.
Negli ultimi due o tre anni le attività di specifica di questa tecnologia si sono nuovamente riavviate a causa del fatto che
mancano nello standard originale metodi efficienti di trasporto dei segnali Ethernet, che
saranno sicuramente in un futuro molto prossimo la maggior parte dei segnali cliente da
trasportare (sia quelli esistenti a 1 Gbit/s e a
10 Gbit/s, sia quelli nuovi a 40 Gbit/s e a 100
Gbit/s ).
Ad oggi la situazione non è completamente stabilizzata, ma tutti i fornitori stanno
iniziando a proporre macchine in grado di
permutare in modo trasparente, sfruttando
matrici elettriche, segnali CBR a 1,25 Gbit/s,
2,5 Gbit/s, a 10 Gbit/s e a 40 Gbit/s indipendentemente dal loro contenuto sia esso
Ethernet, SDH o Sonet.
Per maggiori dettagli circa le logiche di
funzionamento della gerarchia OTH definita
nell’ambito OTN si rimanda all’articolo del
Notiziario Tecnico dedicato [1].
2.5
Un’opportunità per la convergenza
delle reti: il Packet Transport
Le ipotesi di evoluzione delle reti trasmissive in ambito metropolitano e regionale
70
traggono origine dalle previsioni di forte crescita del traffico IP legata alla diffusione dei
nuovi servizi residenziali, dei servizi di Backhauling delle reti mobili di ultima generazione e all’incremento di banda per i servizi
business.
Come già detto, gli Operatori si trovano di
fronte alla necessità di sciogliere tre nodi
fondamentali per poter garantire un’offerta di
qualità per i nuovi servizi e un significativo ritorno economico, minimizzando sia gli investimenti che le spese operative: adeguare le
infrastrutture alla crescita della banda, garantire una buona scalabilità delle reti e far
coesistere per un tempo ad oggi non prevedibile i nuovi servizi con quelli tradizionali.
Per quanto riguarda l’adeguamento delle
infrastrutture alla crescita della banda, per
avere un’idea dell’impatto che i nuovi servizi
potranno avere sulle attuali MAN Ethernet e
sulle reti trasmissive di raccolta in termini di
richiesta di banda, è sufficiente pensare che
le reti di accesso in via di realizzazione permetteranno di offrire ai singoli utenti residenziali velocità medie tra i 50 e i 100 Mbit/s,
ben superiori rispetto al tetto dei 20 Mbit/s
oggi disponibili con tecnologie ADSL+.
Per quanto riguarda la scalabilità si osservi che l’architettura fisica delle reti che
oggi consentono l’erogazione dei servizi IP
è a strati sovrapposti: la rete IP utilizza il
servizio delle MAN Ethernet, che, a loro
volta, richiedono il servizio di trasporto alla
rete WDM (ed in alcuni casi anche SDH).
La crescita del traffico IP implica quindi
anche la necessità di espansione sia delle
reti trasmissive sia della rete Ethernet. Le
tecnologie SDH e WDM non hanno vincoli
di scalabilità, al contrario invece del protocollo Ethernet usato nelle MAN. Ad esempio in una rete metro Ethernet esiste un
limite fisico al numero massimo di servizi di
Virtual LAN che possono essere offerti, legato al numero di bit del campo di identificazione dei servizi stessi (poco più di 4000
distinte Virtual LAN identificabili con un
campo di 12 bit).
NOTIzIarIO TECNICO TELECOm ITaLIa - anno18 NumeroUNO2009
trasm_ottica:Layout_NT 06/03/2009 11.54 Pagina 71
L’evoluzione della trasmissione ottica - Sergio augusto, Valentina Brizi, rossella Tavilla
Da ultimo il problema della coesistenza
del nuovo e del vecchio: le nuove reti dovranno garantire il trasporto sia dei segnali
Ethernet per nuovi servizi IP sia quello degli
attuali servizi TDM e SAN. E questo fino a
quando tutto non sarà stato ridotto a pacchetti.
Negli ultimi cinque anni vari organismi di
standardizzazione (come l’ITU-T e l’IEEE)
hanno lavorato per dare soluzione ai problemi appena esposti, arrivando alla definizione di una “rete di trasporto ottica a
pacchetto” (o Packet Optical Transport Network), in grado di integrare in un'unica architettura i benefici della tecnologia Ethernet e
quelli delle tradizionali reti ottiche di trasporto
SDH e WDM.
Da un lato, infatti, l’Ethernet possiede le
caratteristiche dell’economicità e della semplicità del protocollo: le interfacce Ethernet
elettriche e ottiche sono usate estensivamente non solo nelle LAN, ma anche su PC,
su svariati dispositivi elettronici, su apparati
in ambienti enterprise e hanno permesso
così una economia di scala che nel tempo si
è riflessa sui prezzi dei singoli componenti.
Dall’altro lato, le tecnologie SDH e WDM
assicurano un livello di qualità del servizio
“Carrier Grade” indispensabile in qualunque
rete di trasporto, poiché offrono una connessione trasparente con schemi di protezione
veloci, con latenza predefinita e basso tasso
di errore ad una molteplicità di interfacce
cliente; la rete possiede inoltre meccanismi
che ne consentono una gestione remota
semplice e sicura oltre ad avere il pregio di
poter essere facilmente fatta crescere senza
alcun degrado delle prestazioni.
Tra le soluzioni presentate per una tecnologia innovativa di trasporto a pacchetto con
connessione, le più significative sono indubbiamente il Transport-MPLS (T-MPLS) [6] e
il Provider Backbone Bridging – Traffic Engineering (PBB-TE) [5].
Il T-MPLS è un’evoluzione dell’MPLS
usato nelle reti a pacchetto ed è stato sviluppato dall’ITU-T mentre il PBB-TE detto
NOTIzIarIO TECNICO TELECOm ITaLIa - anno18 NumeroUNO2009
anche Provider Backbone Transport (PBT) è
un’evoluzione degli standard Carrier Ethernet sviluppato dall’IEEE. L’idea di base comune ad entrambi gli approcci è quella di
riuscire ad integrare in un unico strato di rete
e quindi in un singolo apparato le funzionalità oggi svolte da nodi distinti, ma spesso
colocati, della rete di trasporto e delle MAN
Ethernet.
Il T-MPLS è stato standardizzato nell’ITUT Study Group 15 a partire dal 2005, con
l’obiettivo di identificare il sottoinsieme di funzionalità dell’MPLS necessarie e sufficienti a
costruire una rete a pacchetto con connessione. La seguente equazione ben ne riassume le caratteristiche o almeno le intenzioni
dei suoi estensori: T-MPLS = MPLS – “IP
complexity” + OAM 6+ ”Protection Switching”.
Muovendo dai principi dell’MPLS, l’ITU-T
ha infatti sviluppato il T-MPLS, eliminando o
modificando tutte quelle funzionalità e caratteristiche che, utili in una rete a pacchetto,
complicano invece la gestione di una rete
orientata alla connessione. L’entità base
dell’MPLS, l’LSP (Label Switch Path) definito
come un path monodirezionale, è stata mantenuta per garantire un servizio con connessione; in questo caso, però, gli LSP sono
bidirezionali, eventualmente proteggibili,
così come tutti i path di una rete trasmissiva.
Relativamente al tentativo di ridurre la
complessità operativa del protocollo MPLS,
a titolo di esempio si possono citare le funzionalità che l’ITU-T ha deciso di non includere nel T-MPLS e che sono invece ritenute
di grande importanza nella gestione di una
rete dati, come l’elaborazione e il successivo scarto dell’header dei pacchetti nel penultimo nodo del percorso verso la propria
destinazione, o come la fusione di LSP con
destinazione comune su di un unico path
(LSP Merging) o ancora l’instradamento del
traffico di connessioni diverse su più di un
path.
6 Con il termine OAM si intendono tutte le funzionalità di
Operation Administration and Maintainance.
71
trasm_ottica:Layout_NT 06/03/2009 11.54 Pagina 72
L’evoluzione della trasmissione ottica - Sergio augusto, Valentina Brizi, rossella Tavilla
Una caratteristica fondamentale da rimarcare è che, se nelle reti dati sono gli
switch/router a scambiarsi informazioni per
la costruzione delle tabelle di inoltro dei pacchetti, la nuova tecnologia prevede che la
configurazione degli LSP sui singoli apparati
della rete sia effettuata da un sistema di gestione remoto, che permette quindi la supervisione e la gestione della rete grazie alle
funzionalità di OAM&P; tali funzionalità, mai
introdotte nel mondo MPLS, sono state definite attingendo direttamente alle raccomandazioni ITU-T che specificano le medesime
funzionalità per le reti di trasporto.
Le funzionalità di switching associate al TMPLS sono, all’atto pratico, realizzate in una
matrice a pacchetto che trova due possibili
impieghi: uno nei sistemi che rappresentano
l’evoluzione del NG-SDH e un altro nei sistemi che rappresentano invece l’evoluzione
degli switch ethernet.
Nel primo dei due impieghi, il T-MPLS può
essere pensato come un ulteriore strato di
rete le cui funzionalità vanno ad integrare
quelle degli apparati SDH (figura 11) per una
gestione più efficiente del traffico ethernet rispetto a quella sinora offerta dalle funzionalità della NG-SDH: a tendere tutto il traffico
cliente sarà sottoposto a switching e forwarding come in una rete a pacchetto e ciò comporta che anche il traffico TDM debba essere
“pacchettizzato” prima di avere accesso ad
un’unica matrice con funzioni “universali” o
“agnostiche". In questo caso il T-MPLS è
pensato come una tecnologia che permette
di sfruttare le reti di trasporto SDH già installate o almeno il know-how a queste associato e da tempo consolidato all’interno delle
organizzazioni dei principali operatori.
Si è supposto che questa possa essere
una strada vantaggiosa affinché l’evoluzione
dalle attuali architetture di trasporto verso
nuove tecnologie integrate “all IP” possa avvenire gradualmente a partire dalle ampie
basi di rete di trasporto esistenti, assicurando la continuità nell’offerta di servizi legacy, e evitando repentini cambiamenti di
tecnologia.
Nell’ottica dell’analisi dei costi associati ad
un cambio di tecnologia, l’opportunità offerta
dal “riutilizzo” del know-how acquisito ha sicuramente dei riflessi significativi sul contenimento dei costi operativi, intesi sia come
capacità operativa nella gestione fisica della
rete, sia come esperienza da mettere a frutto
nello sviluppo dei nuovi sistemi di supporto
associati.
Il secondo impiego vede la matrice basata
sul T-MPLS inserita in switch ethernet: in
questo caso l’uso del protocollo ha l’obiettivo
di aumentare le prestazioni cosiddette Carrier Grade dei sistemi impiegati nelle reti di
livello 2.
Nei primi mesi del 2008, l’ITU-T e l’IETF
hanno concordato una ulteriore evoluzione
del T-MPLS, l’MPLS-TP (MPLS - Transport
Figura 11 - Lo stack protocollare in cui si
inserisce il T-mPLS
72
NOTIzIarIO TECNICO TELECOm ITaLIa - anno18 NumeroUNO2009
trasm_ottica:Layout_NT 06/03/2009 11.54 Pagina 73
L’evoluzione della trasmissione ottica - Sergio augusto, Valentina Brizi, rossella Tavilla
Profile). Quest’ultimo dovrebbe essere sviluppato in modo da mantenere tutte le funzionalità inserite dall’ITU-T nel T-MPLS e allo
stesso tempo garantire una compatibilità
certificata con lo standard MPLS. Nonostante il T-MPLS abbia ereditato i principi
fondamentali dell’MPLS, la compatibilità tra
le due tecnologie, indispensabile in un’ottica
di completa integrazione delle reti, sembra
infatti non fosse assicurata dallo standard
ITU-T.
Il PBB-TE trae origine dall’insieme di specifiche IEEE che definiscono l’Ethernet
(802.1 e tutte le successive evoluzioni) ed è
stato pensato come uno strato di rete intermedio da aggiungere ai nodi delle attuali reti
ethernet per renderle più vicine al modello
transport-oriented: il suo campo di applicazione è lo stesso descritto per il T-MPLS impiegato a bordo dei classici switch di
livello 2. Ad esso si è giunti attraverso una
serie di evoluzioni successive che negli anni
hanno arricchito e migliorato la tecnologia
Ethernet.
L’impiego dell’802.1 nelle MAN è stato favorito dal basso costo e dalla semplicità
d’uso della tecnologia, ma ha richiesto l’aggiornamento e l’arricchimento del set di specifiche disponibili per assicurare prestazioni
qualitativamente superiori a quelle necessarie in una semplice LAN arrivando alla definizione del cosiddetto “Carrier Ethernet” o
PBB: il massimo numero di VLAN in una rete
è stato fatto crescere e ne è stata ottimizzata
la gestione, ma soprattutto si è offerta una
reale separazione tra la rete del cliente e
quella del provider, poiché il PBB permette
di effettuare il forwarding della trama basandosi esclusivamente sulle informazioni contenute in un nuovo frammento di overhead
senza prendere in considerazione gli indirizzi
MAC dei destinatari finali.
La tappa successiva è stata quella del
PBB-TE definito anche “Carrier Ethernet
Transport”, che secondo gli sviluppatori promette di colmare le inefficienze che l’Ethernet ha sempre mostrato se confrontato con
una tecnologia di puro trasporto. L’Ethernet
infatti, come il PBB, non è in grado di offrire
una latenza deterministica, una protezione
rapida del traffico e, cosa fondamentale sia
per garantire scalabilità sia per ridurre i costi
operativi, una gestione remotizzabile.
Per riassumere, l’approccio seguito dal
T-MPLS e dal PBB-TE è evidentemente diverso ma le reti che entrambi promettono di
realizzare hanno le stesse fondamentali caratteristiche: il piano di gestione e quello
eventuale di controllo sono separati da quello
del traffico dati che viaggia su connessioni
bidirezionali protette (con tempi di scambio
paragonabili a quelli delle attuali reti di trasporto) che possono accettare una molteplicità
di segnali client con diversi requisiti di bitrate,
latenza e jitter; inoltre il piano di gestione
mette a disposizione delle funzioni previste
da quanto stabilito in ITU-T ed in particolare
le cosiddette funzioni FCAPS: Fault Management, Configuration Management, Accounting Management, Performance Management e Security Management.
2.6
NOTIzIarIO TECNICO TELECOm ITaLIa - anno18 NumeroUNO2009
Il Piano di controllo: quando è la
Rete a decidere
Da alcuni anni alle reti trasmissive sono
state aggiunte, mediante l’impiego di un
Piano di Controllo interessanti funzioni automatiche spesso indicate come “intelligenti”.
Tali funzioni coprono una molteplicità di
aspetti legati al funzionamento di una rete
trasmissiva; tra questi la protezione dei circuiti è uno di quelli cha ha decretato il successo dell’applicazione di un Piano di
Controllo alle reti trasmissive.
Le reti tradizionali, ad esempio quelle basate sulla tecnologia SDH di prima generazione, prevedono meccanismi di protezione
basati sostanzialmente sul raddoppio della
banda. Per ciascun circuito è necessario un
secondo circuito di protezione; a fronte di un
73
trasm_ottica:Layout_NT 06/03/2009 11.54 Pagina 74
L’evoluzione della trasmissione ottica - Sergio augusto, Valentina Brizi, rossella Tavilla
guasto sul circuito principale, il traffico è dirottato sul circuito di protezione precedentemente configurato. Questa modalità
presenta alcuni svantaggi: il circuito di protezione deve essere disponibile anche se
non utilizzato, la sopravvivenza del traffico
non è garantita per guasti multipli e, a fronte
di una variazione della rete o per esigenze
di esercizio, è complesso modificare il percorso di un circuito stesso.
Il Piano di Controllo, al contrario, “conosce” la rete e lo stato delle risorse ed è in
grado di calcolare e condividere nuovi percorsi di protezione ad ogni guasto, come descritto in figura 12. I vantaggi che ne
derivano sono: efficienza, tramite la condivisione delle risorse, affidabilità, grazie alla
possibilità di garantire la sopravvivenza del
traffico per guasti multipli e, infine, flessibilità,
dovuta al fatto che il percorso di un circuito
è calcolato automaticamente ma può essere
modificato.
Il Piano di Controllo mette a disposizione
diversi parametri per stabilire le politiche di
instradamento: è possibile, ad esempio, definire un costo diverso per ciascuna connessione in modo da privilegiare alcune
direttrici, applicare algoritmi di Traffic Engineering per evitare la congestione nell’uso
delle risorse o applicare criteri di priorità ai
circuiti in modo da garantire il massimo
grado di protezione a quelli più pregiati. In
merito a quest’ultimo punto si osservi che il
Piano di Controllo consente inoltre di confi-
gurare diverse modalità di protezione in base
alla qualità del servizio stabilita per ciascun
circuito.
2.6.1
Il Piano di Controllo per
Reti Opache e AON
Molti Operatori, tra cui Telecom Italia [2],
hanno in esercizio reti Opache (per ora SDH
e non OTN) dotate di Piano di Controllo; al
contrario, le reti AON in campo oggi sono ancora prive di funzionalità automatiche. Esistono alcune differenze sostanziali tra i due
tipi di rete. Una prima differenza è che un
Piano di Controllo in una rete AON, per garantire la fattibilità di un percorso, deve tenere conto delle caratteristiche fisiche della
rete come ad esempio la tipologia della fibra
ottica, lo stato degli amplificatori, l’attenuazione dovuta all’attraversamento di apparati
ottici o ripartitori. Questi aspetti non sono rilevanti in una rete Opaca dove, come si ricorderà, il segnale è rigenerato in ogni nodo.
L’insieme di parametri fisici si aggiunge
quindi all’insieme dei parametri caratteristici
di un Piano di Controllo: ne consegue una
maggiore complessità degli algoritmi di calcolo.
Alcuni di questi parametri sono statici, ad
esempio la tipologia di fibra, altri possono
cambiare, ad esempio l’attenuazione di un
collegamento può aumentare a seguito del-
Figura 12 - Protezione dei circuiti
74
NOTIzIarIO TECNICO TELECOm ITaLIa - anno18 NumeroUNO2009
trasm_ottica:Layout_NT 06/03/2009 11.54 Pagina 75
L’evoluzione della trasmissione ottica - Sergio augusto, Valentina Brizi, rossella Tavilla
l’inserzione di uno o più ripartitori ottici, situazione che può verificarsi a seguito di un
ripristino di un guasto di cavo.
Se il Piano di Controllo non conosce tali
variazioni potrebbe giudicare fattibile un percorso che in realtà non lo è più. L’aggiornamento automatico di questi parametri implica
però un incremento della segnalazione di
rete e della complessità degli apparati. Un
modo per risolvere questo problema è quello
di aggiungere margini di sicurezza durante
la fase di calcolo di un percorso, in modo da
poter assorbire eventuali peggioramenti
delle caratteristiche ottiche della rete. Questa scelta, per la sua semplicità, sembra essere preferita dai costruttori, anche se
prevede, ovviamente, un incremento dei
costi complessivi di rete.
Un secondo aspetto tipico delle reti AON
dotate di Piano di Controllo è il fatto che il
numero di canali ottici in un aggregato di
linea è tipicamente limitato a 40 o a 80 (in alcuni casi molto rari si arriva a 160). Quindi
una connessione tra due apparati ottici deve
essere realizzata con una sequenza di canali dello stesso colore oppure individuando
un apparato intermedio dove è possibile realizzare una conversione elettro-ottica del segnale ed un cambio di frequenza, come
descritto in figura 13 dove la connessione tra
il nodo WSS-a ed il nodo WSS-e non può essere realizzata mediante la lunghezza
d’onda 1 perchè nel sistema DWDM tra i
nodi WSS-f e WSS-e questo canale è già occupato. È quindi necessario modificare la
frequenza del canale da 1 a 2 nel nodo
WSS-f, utilizzando ad esempio una coppia
di transponder sintonizzabili in frequenza.
In una rete di livello nazionale costituita da
alcune decine di nodi, potrebbe risultare
complesso trovare una sequenza di canali
dello stesso colore per connettere due apparati: si potrebbe arrivare ad una situazione di
blocco, cioè all’impossibilità di calcolare un
nuovo percorso perché, pur essendoci canali
disponibili, questi non hanno lo stesso colore. Aumentare il numero di nodi dove è
possibile realizzare la conversione elettro-ottica ed il cambio di frequenza presenta ovviamente lo svantaggio di aumentare il costo
complessivo della rete. L’efficienza del Piano
di Controllo nella gestione delle frequenze è
quindi un aspetto rilevante per le reti AON.
2.6.2
Architettura Centralizzata
o Distribuita
Un aspetto rilevante per un Piano di Controllo è la localizzazione dei processi di elaborazione.
Questi
possono essere
concentrati in
una
singola
entità
fisica
(Piano di Controllo Centraliz-
Figura 13 - Funzionalita` di
cambio di colore
NOTIzIarIO TECNICO TELECOm ITaLIa - anno18 NumeroUNO2009
75
trasm_ottica:Layout_NT 06/03/2009 11.54 Pagina 76
L’evoluzione della trasmissione ottica - Sergio augusto, Valentina Brizi, rossella Tavilla
zato) o distribuiti tra tutti i controllori di apparato (Piano di Controllo Distribuito) come descritto in figura 14. Questa ultima architettura
è quella tipica delle reti dati (ad esempio una
rete di Router IP).
Nell’architettura centralizzata, ciascun apparato non conosce lo stato della rete e queste informazioni ed i processi per il calcolo
dei percorsi risiedono in un server (o in un
cluster di server) centralizzato al quale tutti
fanno riferimento: gli apparati di conseguenza possono essere equipaggiati con
controllori più semplici ed economici.
In questa soluzione i server hanno un
ruolo rilevante: dalla loro disponibilità, capacità di memoria e velocità di calcolo deriva
infatti il buon funzionamento della rete. In genere la concentrazione delle informazioni di
rete in un unico punto facilita la visibilità della
rete offerta all’operatore che la gestisce.
Nell’architettura distribuita, i processi del
Piano di Controllo sono distribuiti su tutti gli
apparati, che quindi conoscono lo stato della
rete (topologia, stato della rete, allarmi, instradamento dei circuiti). Dalle prestazioni
dei controllori equipaggiati in ciascun nodo e
dal controllo delle scelte che gli apparati
prendono in maniera autonoma dipende l’efficacia della soluzione distribuita.
In questa soluzione, l’indisponibilità di un
singolo apparato non comporta un degrado
sull’intera rete, in quanto gli altri apparati
mantengono inalterate le possibilità di proteggere il traffico. La distribuzione dei processi e delle informazioni porta in genere ad
una maggiore complessità nella loro raccolta
e distribuzione verso i sistemi di gestione.
Tipicamente un Piano di Controllo su reti
AON ha un’architettura centralizzata, mentre
per le reti Opache si è partiti da soluzioni
concentrate per arrivare, nella maggioranza
delle ultime implementazioni, ad architetture
distribuite o semidistribuite.
Figura 14 - Localizzazione dei processi
76
NOTIzIarIO TECNICO TELECOm ITaLIa - anno18 NumeroUNO2009
trasm_ottica:Layout_NT 06/03/2009 11.54 Pagina 77
L’evoluzione della trasmissione ottica - Sergio augusto, Valentina Brizi, rossella Tavilla
3
La rete trasmissiva di Telecom
Italia: lo stato dell’arte e le sue
possibili evoluzioni
3.1
La rete trasmissiva di lunga distanza
La rete di trasmissiva di lunga distanza o
Rete di Trasporto Nazionale (RTN) è la rete
che interconnette le maggiori città italiane, i
cosiddetti Nodi Nazionali (o ex nodi A1). E’
costituita da tre livelli sovrapposti: la fibra, i
sistemi DWDM e le reti SDH.
Per quanto riguarda la fibra ottica, in ambito nazionale si distinguono fondamentalmente tre tipologie di fibre: la fibra
rispondente alla Raccomandazione ITU-T
G.653 che è la fibra di vecchia generazione,
ottimizzata per applicazioni singolo-canale
SDH (bassissimi valori di attenuazione e dispersione cromatica nulla nella regione di lavoro dei trasmettitori laser SDH), ma non
ottima per applicazioni WDM, la fibra ITU-T
G.655 che è la fibra di posa recente ottimizzata per le nuove tecnologie WDM e la fibra
ITU-T G.652 che è la fibra presente principalmente in ambito regionale; in alcuni casi
è stata utilizzata anche per applicazioni in
ambito nazionale. Questa fibra consente ottime prestazioni anche per la tecnologia
WDM.
Come già detto negli ultimi dieci anni la
tecnologia WDM è stata utilizzata intensamente nell’ambito della RTN, consentendo
la realizzazione di uno “strato ottico” estremamente capillare costituito da collegamenti
punto-punto. Lo sviluppo di questo strato ottico ha avuto inizio nel 1999 con gli apparati
DWDM di prima generazione (detti Long
Haul - LH) in grado di trasportare 12 canali
ottici a 2,5 Gbit/s su fibra G.653 e 16 canali
ottici 2,5 Gbit/s su fibra G.652; questi sistemi, 75, sono tutti ancora in esercizio.
Dalla seconda metà del 2001 ha avuto ini-
NOTIzIarIO TECNICO TELECOm ITaLIa - anno18 NumeroUNO2009
zio lo sviluppo dei sistemi DWDM di seconda
generazione (detti Very Long Haul - VLH) in
grado di trasportare fino a 40 canali ottici a
2,5 Gbit/s e/o a 10 Gbit/s.
Tale salto tecnologico ha consentito di decuplicare la capacità trasmissiva di ogni singola coppia di fibre, che è così passata da
40 Gbit/s a 400 Gbit/s. Il duplice vantaggio
della tecnologia WDM consiste proprio in
questo: da un lato moltiplica la banda disponibile superando situazioni di saturazione o
di scarsità di fibre ottiche; dall’altro consente
di ridurre gli investimenti per unità di banda
trasportata.
Lo sviluppo dello strato ottico è quindi proseguito negli anni successivi seguendo l’innovazione tecnologica che, in sintesi, ha
consentito di realizzare collegamenti sempre
più lunghi tramite il miglioramento delle prestazioni trasmissive, di semplificare l’esercizio e la gestione dei collegamenti tramite
l’automazione di alcune funzionalità (come
ad esempio l’equalizzazione degli amplificatori ottici e la pre-enfasi delle potenze dei trasmettitori laser) e trasportare segnali di
diversi formati (SDH, GbE, 10 GbE); tutto
questo con l’inserimento in rete dei sistemi
di terza generazione (noti anche come sistemi Ultra Long Haul - ULH).
Ad inizio 2009 risultano attivi circa 170 sistemi DWDM, per un totale di quasi 40.000
km di collegamenti. Il grafico in figura 15 rappresenta la distribuzione delle lunghezze dei
collegamenti in esercizio. Le lunghezze minori sono relative ai collegamenti meno recenti; dal 2006 in poi la tecnologia DWDM
ULH di terza generazione ha consentito di
realizzare sistemi con lunghezza fino a 1200
km senza rigenerazione elettrica. Inoltre, nei
sistemi più recenti sono state inserite le funzionalità di Optical Add & Drop Multiplexing
(OADM) lungo linea, ovvero la possibilità di
inserire/terminare canali ottici in siti lungo
linea e non solo nei siti terminali.
I sistemi DWDM presenti nella Rete Nazionale di Telecom Italia sono principalmente
forniti da Alcatel- Lucent e da Ericsson.
77
trasm_ottica:Layout_NT 06/03/2009 11.54 Pagina 78
L’evoluzione della trasmissione ottica - Sergio augusto, Valentina Brizi, rossella Tavilla
Figura 15 - Distribuzione delle
lunghezze dei sistemi DWDm
Attualmente nello strato ottico non sono
state implementate funzionalità di protezione
e di commutazione delle lunghezze d’onda:
i sistemi sono tutti realizzati in modalità
punto – punto e tutti i meccanismi di protezione del traffico sono implementati dalle reti
elettriche SDH Phoenix e Arianna.
La rete Arianna, sviluppata dal 1999 al
2003, è una rete SDH che si basa su un’architettura ad anelli (su 4 o 6 nodi) aventi velocità di linea pari a 2,5 Gbit/s. Più
dettagliatamente, la struttura della rete
Arianna prevede un livello di Backbone ad
altissima disponibilità concentrato sui 16
nodi nazionali principali ed un livello di raccolta regionale/nazionale. Le sezioni trasmissive degli anelli sono costruite
utilizzando in alcuni casi direttamente la fibra
ottica e, nella maggior parte dei casi, lunghezze ottiche a 2,5 Gbit/s dei sistemi
DWDM sopra descritti. La Rete Arianna ha
eccellenti prestazioni in termini di disponibilità; i meccanismi di protezione utilizzati sono
quelli classici del mondo SDH: in particolare
MSP - Ring a 4 fibre per gli anelli del Backbone di primo livello e SNCP per tutti gli altri
anelli.
Come sopra evidenziato la rete Arianna è
nata per il trasporto del traffico tradizionale
78
di tipo voce tipicamente statico
e con elevati requisiti in termini
di disponibilità del servizio. Nel
momento in cui traffico e servizio di tipo IP hanno iniziato a
svilupparsi in maniera significativa, l’architettura di rete ha evidenziato limiti di flessibilità,
scalabilità, efficienza ed integrazione con le tecnologie più
innovative.
La rete Arianna è tuttora in esercizio ed è
principalmente utilizzata per i servizi basati
su VC4 7 strutturati.
Per superare i limiti sopra indicati e sviluppare una piattaforma di rete che consentisse
di soddisfare le nuove esigenze del traffico
garantendo contestualmente la riduzione dei
costi associati, dalla fine del 2003 è iniziata
la realizzazione della rete Phoenix i cui obiettivi principali erano l’ottimizzazione degli investimenti, la fornitura di nuovi servizi di
connettività, la diversificazione della disponibilità dei servizi di trasporto offerti e la riduzione dei tempi di provisioning.
La rete Phoenix [2] è una rete SDH organizzata su una maglia di 40 nodi di cross
connessione con matrice elettrica ed interfacce ottiche. È in grado di proteggere i circuiti sia mediante meccanismi di protezione
classica come l’SNCP 1+1, sia mediante sofisticati meccanismi di restoration.
In particolare i nodi di Phoenix sono di tre
tipologie, in base alla capacità equivalente
implementata: 80 Gbit/s, 320 Gbit/s e 960
Gbit/s. Il cuore dei nodi è costituito da una
matrice che opera cross-connessioni a livello
di VC4. La tecnologia utilizzata per i nodi
7 VC4: è il payload della struttura digitale della gerarchia
SDH STM-1 a 155 Mbit/s
NOTIzIarIO TECNICO TELECOm ITaLIa - anno18 NumeroUNO2009
trasm_ottica:Layout_NT 06/03/2009 11.54 Pagina 79
L’evoluzione della trasmissione ottica - Sergio augusto, Valentina Brizi, rossella Tavilla
della rete Phoenix ed il relativo piano di controllo sono forniti da Ericsson.
Anche la rete Phoenix utilizza per le interconnessioni tra i vari nodi le lunghezze ottiche dei sistemi DWDM dello strato ottico;
inizialmente tramite collegamenti di linea del
tipo a 2,5 Gbit/s e, in seguito e tuttora, a
10 Gbit/s.
Phoenix è stata una delle prime reti trasmissive al mondo ad implementare un
piano di controllo GMPLS centralizzato, utilizzato sia per il provisioning sia per la protezione del traffico.
Alla fine del 2008 la rete è composta da
circa 40 nodi e trasporta circuiti dal
155 Mbit/s al 10 Gbit/s per una quantità di
banda complessiva pari a quasi 4000 flussi
a 155 Mbit/s equivalenti.
Il layer ottico DWDM di lunga distanza costituisce, infine, l’infrastruttura di trasporto
tramite la quale vengono forniti servizi di
connettività nazionale ad alta velocità, sia
per le infrastrutture proprietarie di Telecom
Italia, quali la rete di BackBone IP (OPB [9]),
sia per Clienti Wholesale (altri OLO o ISP) e
Clienti Retail (Banche, Ministeri, grandi società).
Questi servizi, denominati “lambda services” prevedono la fornitura di uno o più canali ottici nazionali (lambda) con consegna
al Cliente finale di circuiti con terminazione
di tipo SDH, con velocità dal 155 Mbit/s al 10
Gbit/s, e di tipo dati, con terminazioni quali
GbE e 10 GbE.
3.2
Una possibile evoluzione della rete
trasmissiva di lunga distanza
Da un lato i progressi effettuati nel campo
delle tecnologie nell’ultimo quinquennio descritti nelle sezioni precedenti, dall’altro le
criticità attualmente presenti nel backbone
nazionale attuale spingono a pensare a strategie evolutive che tengano in considerazione entrambi gli aspetti.
NOTIzIarIO TECNICO TELECOm ITaLIa - anno18 NumeroUNO2009
In particolare, la rete attuale presenta alcuni punti di debolezza sia tecnologici sia di
scalabilità; la rete Phoenix è infatti realizzata
con una tecnologia che risale al 2003 e non
è facilmente modificabile per garantire il trasporto dei nuovi servizi ed il soddisfacimento
delle nuove funzionalità che invece il mercato inizia a richiedere, quali il trasporto di
segnali a 10 Gbe e del 40 Gbit/s, la possibilità di proteggere in canali ottici in maniera
trasparente e la possibilità di offrire servizi
del tipo banda a richiesta (BoD, Bandwidth
on Demand). Inoltre, essendo una rete che
lavora a livello di singolo VC4 (ad esempio
un segnale GbE viene trasportato “smontandolo” in 7 VC4), presenta problemi di scalabilità dei nodi e di numerosità degli elementi
di rete (circuiti) da gestire.
D’altro canto, anche lo strato ottico per
come costruito fino ad oggi presenta alcune
limitazioni dovute fondamentalmente alla
frammentazione dei vari link che, oltretutto,
sono anche di fornitori differenti. Questo implica tempi di Creation (realizzazione) e di
Provisioning (attivazione dei flussi end-toend) in molti casi lunghi. Infine, va considerata l’obsolescenza dei sistemi DWDM di
prima generazione che sono oramai alla soglia dei 10 anni di vita.
Risulta quindi necessario delineare una
strategia evolutiva che tenga conto degli attuali punti di debolezza e che al contempo
sia ispirata dalle seguenti linee guida: consolidamento delle piattaforme di rete mediante la razionalizzazione delle varie
piattaforme di backbone e lo spegnimento
delle reti obsolete, riduzione/difesa dei Total
Cost of Ownership (TCO, CapEx e OpEx) e
miglioramento della disponibilità dei servizi
offerti.
Il driver fondamentale rimane però l’evoluzione del traffico, in termini di matrice (da
dove a dove), di banda (quanto), di granularità (come) e di requisiti di disponibilità richiesti. La difficoltà nell’avere indicazioni chiare
in merito all’evoluzione del traffico (a parte il
fatto che “aumenti”) aggiunge un ulteriore re-
79
trasm_ottica:Layout_NT 06/03/2009 11.54 Pagina 80
L’evoluzione della trasmissione ottica - Sergio augusto, Valentina Brizi, rossella Tavilla
quisito alla piattaforma di rete futura, che
deve essere legata il meno possibile ad una
prefissata matrice di traffico ma deve essere
in grado di adattarsi a diversi possibili scenari.
Tutte le considerazioni fin qui esposte,
unite ad un’attività di scouting effettuata nel
corso del 2008 con i principali fornitori di tecnologie trasmissive a livello mondiale, portano ad individuare come soluzione a
tendere per la nuova piattaforma di trasporto
un’architettura su due layer indipendenti: un
layer completamente fotonico (Photonic
Layer, PL) e un layer elettrico (Bandwidth
Management Layer, BML).
Il layer fotonico sarà realizzato con le
nuove tecnologie disponibili descritte precedentemente, ovvero nodi ottici multidegree con tecnologia WSS, capacità di linea
di 80 lunghezze d’onda a 40 Gbit/s e evolvibile verso applicazioni di restoration ottica
con control plane GMPLS dedicato; il layer
elettrico, dedicato al grooming ed alla gestione del traffico a bassa velocità (VC4 nativi e concatenati), con meccanismi di
restoration, potrà costituire l’evoluzione
dell’attuale rete Phoenix, con l’adozione
della tecnologia OTN.
80
Nella figura 16 è schematizzata l’architettura appena descritta, con evidenza del PL,
del BML, dello strato di sistemi DWDM esistenti (lo strato ottico di cui al paragrafo 2.1)
e le modalità di interlavoro tra i vari layer di
rete.
Lo scouting tecnologico effettuato con tutti
i maggiori fornitori ha evidenziato anche alcuni fatti interessanti. Innanzitutto le due tecnologie in gioco, l’OTN (Nodi Elettrici) e la
Fotonica (Nodi Ottici WSS) non sono in competizione tra di loro, ma possono essere sviluppate indipendentemente, da un punto di
vista temporale e architetturale, senza che
ciò precluda una loro integrazione successiva.
In secondo luogo, l’applicazione della tecnologia fotonica comporta dei benefici economici immediati sugli investimenti tale da
suggerire la realizzazione di un PL esteso
su tutti i nodi della rete nazionale. Infine,
mentre la tecnologia Fotonica risulta effettivamente disponibile commercialmente ed è
già in corso di sviluppo presso molti Operatori nel mondo, la tecnologia OTN risulta an-
Figura 16 - Possibile architettura della nuova
rete trasmissiva nazionale
NOTIzIarIO TECNICO TELECOm ITaLIa - anno18 NumeroUNO2009
trasm_ottica:Layout_NT 06/03/2009 11.54 Pagina 81
L’evoluzione della trasmissione ottica - Sergio augusto, Valentina Brizi, rossella Tavilla
cora in fase di consolidamento sia da
un punto di vista
degli standard, che
delle applicazioni e
di apprezzamento
sul mercato.
L’idea è quindi
che la nuova rete
trasmissiva nazionale preveda lo
sviluppo da subito
di una rete Fotonica estesa a tutti i
nodi della Rete di
Trasporto Nazionale ed utilizzo
della rete Phoenix
per il traffico con bitrate inferiore a 1 Gbit/s
e, successivamente, lo sviluppo e l’integrazione di uno strato di rete OTN che affianchi
e sostituisca gradualmente la rete Phoenix.
La figura 17 illustra la struttura di un
generico nodo della nuova piattaforma. È
inoltre indicata anche l’eventuale interconnessione verso i sistemi DWDM
attualmente esistenti. Va infine evidenziato
che le funzionalità Fotonica e OTN possono
essere sviluppate su apparati distinti (e di
fornitori diversi) aventi Piani di Controllo
indipendenti o possono essere integrate in
un unico apparato con un Piano di Controllo unico sia per il livello elettrico sia per
il livello ottico.
3.3
La rete trasmissiva regionale e
metropolitana
L’architettura della rete regionale prevede
l’impiego di tecnologia DWDM (di fornitura Alcatel-Lucent, Ericsson, Huawei, Nokia Siemens Networks, Nortel) con una topologia
caratterizzata da strutture ad anelli e puntopunto. Gli anelli tipicamente sono utilizzati
NOTIzIarIO TECNICO TELECOm ITaLIa - anno18 NumeroUNO2009
Figura 17 - architettura di un nodo della nuova
rete trasmissiva nazionale
per realizzare infrastrutture indipendenti per
servizi a pacchetto (1GbE e 10GbE) su canali ottici protetti e non protetti e per il soccorso fibra, tipicamente per chiudere anelli
SDH, su canali ottici non protetti. Le strutture
lineari punto-punto protette e non protette
sono dedicate in modo esclusivo a grandi
clienti business o per soluzioni infrastrutturali
per il soccorso fibra.
Le dimensioni delle singole reti hanno
un’elevata variabilità, partendo dai 50 km e
arrivando a superare i 300 km, con un numero di nodi variabile da 3 a 9.
La rete WDM regionale ha il triplice obiettivo di offrire una soluzione alternativa alla
posa di nuova fibra utilizzata da apparati legacy SDH e NG-SDH (soccorso fibra), di
connettere con collegamenti 10GbE non protetti tutte le sedi di Feeder dei capoluoghi minori ai due switch Metro di riferimento della
rete OPM (trasporto OPM) e di offrire a clienti
business di medie-grandi dimensioni soluzioni di trasporto integrate in progetti realizzati su base gara.
81
trasm_ottica:Layout_NT 06/03/2009 11.54 Pagina 82
L’evoluzione della trasmissione ottica - Sergio augusto, Valentina Brizi, rossella Tavilla
La rete ottica WDM in ambito metropolitano può essere distinta nelle sue sezioni di
Metro-Core e di Metro-Access. La sezione di
rete Metro-Core utilizza la stessa tecnologia
DWDM impiegata in ambito regionale: è fisicamente realizzata da sottoreti con topologie
ad anello di estensione massima di circa
80-100 km in corrispondenza dei principali
capoluoghi. Tali sottoreti consentono il trasporto di 32/40 canali ottici con bitrate massimo di 10 Gbit/s con possibilità di
rigenerazione elettro-ottica (3R) del singolo
segnale ottico, compensazione della dispersione cromatica e amplificazione del segnale
aggregato.
La maggior parte degli anelli sono stati realizzati in concomitanza delle varie fasi di sviluppo del progetto IPTV dal 2004 al 2006 e
sono oggi impiegati per trasportare il traffico
aggregato dal primo livello di Feeder verso il
secondo livello di Metro della rete OPM con
collegamenti di tipo 10GbE non protetti. Gli
anelli sono composti da nodi in parte colocati
con gli switch della rete OPM, in parte strategicamente posizionati nelle centrali di Telecom Italia. La stessa infrastruttura infatti è
dedicata anche alla fornitura di collegamenti
protetti e non protetti, sempre in ambito urbano, di tipo SDH (STM1/4/16/64), Ethernet
(1GbE, 10GbE) e SAN (ESCON, FC,
FICON) per soccorso fibra e clientela business.
La sezione di rete Metro-Access è realizzata con anelli di tipo CWDM (di fornitura Alcatel-Lucent, Pirelli-PGT, Nokia Siemens
Networks) che prevedono un diametro massimo di circa 50 km, con un numero medio di
4 centrali collegate verso un nodo di raccolta,
detto hub. Ciascun anello è in grado di trasportare fino a 8 canali ottici non amplificati
con un bitrate, sino ad oggi, non superiore a
2,5 Gbit/s. Sono già disponibili e a breve saranno rilasciati in rete espansioni sino a 16
canali e fino a 16 canali DWDM a 2,5Gbit/s e
10Gbit/s.
Anche questa sezione di rete ha avuto il
massimo impulso durante lo sviluppo del pro-
82
getto IPTV e viene utilizzata per raccogliere
il traffico originato da tutti i dispositivi che afferiscono alla OPM di TI, come i DSLAM
Ethernet, i remote Feeder, i nodi Gateway A
(GTW A) per il backhauling mobile e gli
switch della clientela business, e diretto su
collegamenti di tipo 1GbE verso i Feeder
OPM colocati con il nodo hub.
Non esiste, ad oggi, una struttura di interconnessione tra le varie sezioni di rete Metro
e Regionale: gli anelli Metro-Access, gli anelli
Metro-core e quelli Regional non hanno punti
di interconnessione comuni.
Per completezza di informazione, è doveroso aprire una breve parentesi sulla tecnologia
NG-SDH
usata
nella
rete
Metro-Regional di Telecom Italia, a cui si è
fatto cenno in precedenza. Apparati di questo
tipo sono stati introdotti in rete per permettere
il trasporto efficiente di flussi dati Ethernet su
una rete sincrona, arricchendo i tradizionali
nodi SDH con funzionalità per il mappaggio
del flusso asincrono di trame/pacchetti dati in
quello sincrono di container VC4 8, per l’utilizzo più efficiente della capacità SDH con la
concatenazione virtuale degli n VC4 usati per
trasportare i flusso dati 9 e con la possibilità di
modulare dinamicamente la banda disponibile della connessione di trasporto 10.
Viste le elevate capacità richieste dalle interfacce GbE e 10GbE della OPM e il progressivo approssimarsi del costo degli
apparati WDM a quello degli apparati SDH, la
scelta tecnologica si è però orientata verso
una soluzione puramente fotonica mentre
l’utilizzo del trasporto SDH si è rivelato conveniente in un numero di casi percentualmente limitato.
La scelta della tecnologia WDM è stata influenzata anche da un altro fattore: oltre al trasporto trasparente di flussi SDH (da STM-1 a
8 Con il protocollo GFP specificato nella raccomandazione
dell’ITU-T G7041
9 Con lo standard VCAT specificato nelle raccomandazioni
dell’ITU-T G.707 e G.783
10 Con lo standard LCAS specificato nelle raccomandazioni
dell’ITU-T G.7042
NOTIzIarIO TECNICO TELECOm ITaLIa - anno18 NumeroUNO2009
trasm_ottica:Layout_NT 06/03/2009 11.54 Pagina 83
L’evoluzione della trasmissione ottica - Sergio augusto, Valentina Brizi, rossella Tavilla
STM-64) e Ethernet (Fast Ethernet, 1 Gigabit-Ethernet e 10 Gigabit-Ethernet), gli apparati a multiplazione di lunghezza d’onda sono
gli unici che offrono la possibilità di trasporto
e garanzie di massima trasparenza temporale
per i flussi di tipo di tipo ESCON, FICON e
Fiber Channel, usati in applicazioni di Business Continuity (data mirroring per disaster
recovery, storage remoto o interconnessione
di Data Center): tutti i protocolli citati funzionano infatti con meccanismi di riscontro della
singola trama e ogni eventuale ritardo nella
propagazione si trasforma in una diminuzione
del bitrate netto dell’applicazione.
3.4
L’evoluzione della rete trasmissiva
regionale e metropolitana: gli
impatti del Next Generation Access
Per poter analizzare i possibili scenari
evolutivi della rete trasmissiva regionale e
metropolitana è necessario descrivere brevemente la rete che maggiormente ne sfrutta
il servizio di trasporto: la rete OPM.
La rete OPM [4] è stata pensata per l’offerta di servizi di livello 2 a clientela residen-
ziale, affari e wholesale. I nodi OPM sono dislocati nei principali centri urbani del Paese
e sono organizzati in una struttura a due livelli gerarchici (figura 18): un primo livello
gerarchico inferiore rappresentato dai nodi
Feeder ed un secondo livello gerarchico di
nodi Metro.
I Metro sono i nodi con funzioni di aggregazione e di connessione con il backbone di
trasporto IP: sono di solito colocati con i nodi
della rete OPB e ad essi connessi con collegamenti 10GbE. I nodi Feeder hanno il compito di raccogliere i flussi a bassa velocità
(1G) e di aggregarli verso i Metro. La connessione Feeder-Metro si realizza con collegamenti fisici non protetti 10 GbE trasportati
su rete ottica DWDM. Ogni feeder è connesso a due Metro: per questo si utilizzano
collegamenti di trasporto in ambito urbano o
regionale, in base alla dislocazione fisica
della coppia di Metro di riferimento.
I Feeder sono connessi con i nodi della
rete di accesso (DSLAM ADSL, switch o router, Node B delle antenne UMTS): a questo
livello, i collegamenti fisici sono di tipo 1GbE,
in alcuni casi trasportati su fibra ottica o su
rete NG-SDH, ma nella maggioranza dei
casi il trasporto avviene su rete ottica DWDM
e CWDM; una coppia di flussi 1GbE è di so-
Figura 18 - La rete OPm
NOTIzIarIO TECNICO TELECOm ITaLIa - anno18 NumeroUNO2009
83
trasm_ottica:Layout_NT 06/03/2009 11.54 Pagina 84
L’evoluzione della trasmissione ottica - Sergio augusto, Valentina Brizi, rossella Tavilla
lito multiplata su un canale ottico a 2,5 Gbit/s
protetto a livello ottico.
Le connessioni fisiche a 10 Gbit/s e 2,5
Gbit/s sono realizzate da apparati di trasporto
colocati con i nodi della OPM e della rete di
accesso: tutte le interfacce ottiche 10GbE e
1GbE sono quindi duplicate sulla rete di
switch, sulla rete di accesso e sulla rete di trasporto, con ovvie conseguenze in termini di
costi legati alla scalabilità dell’architettura attuale.
La rete OPM e la rete di trasporto che le
offre servizio dovranno prevedere una crescita compatibile con le ipotesi di incremento
del traffico IP del prossimo futuro.
Infatti, l’offerta residenziale sarà legata ad
una banda potenzialmente maggiore di
quella attuale grazie alle reti di accesso di
nuova concezione. In Telecom Italia la
nuova rete di accesso, denominata NGN2
Figura 19 - Una possibile evoluzione della rete a
strati con la Packet Optical Transport Network
84
[3] è realizzata con tecnologia FTTx secondo i concetti dettati dell’Ethernet First
Mile (EFM): dispositivi GPON (Gigabitethernet Passive Optical Network) coprono l’ultimo miglio della rete di accesso con
modalità FTTB/FTTCab (a tendere FTTH);
l’ultimo tratto verso le singole utenze è ancora coperto con una connessione fisica in
rame con tecnologie di raccolta VDSL. Il singolo utente residenziale avrà accesso alla
rete di Telecom Italia attraverso una struttura ethernet, quella della GPON della
NGN2, con una capacità di banda globale
per la singola struttura GPON pari a 2,5
Gbit/s. Già sono disponibili sul mercato soluzioni come WDM-PON che permettono
una capacità di banda almeno di un ordine
di grandezza superiore.
La tipologia di offerta rivolta alla clientela
business dovrebbe invece rimanere invariata, con un incremento, però delle velocità
di banda messe a disposizione. Le interfacce
Ethernet
a
bassa
velocità
10/100Mbit/S verranno progressivamente abbandonate
per essere sostituite da interfacce a velocità minima
di 1 Gbit/s.
Infine, il backhauling
delle reti mobili dovrebbe abbandonare a
breve la tecnologia
NOTIzIarIO TECNICO TELECOm ITaLIa - anno18 NumeroUNO2009
trasm_ottica:Layout_NT 06/03/2009 11.54 Pagina 85
L’evoluzione della trasmissione ottica - Sergio augusto, Valentina Brizi, rossella Tavilla
ATM e passare a quella Ethernet. I Node-B
delle base station UMTS saranno infatti equipaggiati con interfacce GbE che sostituiranno
le attuali interfacce ATM passando dagli
nx2Mbit/s attuali ad una interfaccia 1GbE.
La rete di trasporto WDM si troverà quindi
a dover gestire un traffico in prevalenza a
pacchetto di tipo Ethernet, e allo stesso
tempo e per un periodo non facilmente prevedibile, dovrà continuare a garantire l’offerta attuale di servizi legacy TDM e di servizi
SAN. Le richieste di servizi sincroni su rete
SDH sono previste in calo, ma rappresenteranno ancora a lungo una quota consistente
di mercato, mentre per i servizi SAN non si
prevede alcuna riduzione.
Ormai tutti i principali fornitori di apparati di
trasporto (Alcatel-Lucent e Huawei) hanno
reso disponibili nei loro listini linee di prodotto
che realizzano il paradigma di integrazione in
un solo sistema delle funzionalità di trasporto
e di switching e forwarding del traffico di livello
2. L’elaborazione dei pacchetti è affidata al
nuovo strato di rete, fisicamente realizzato
con matrici elettriche che oggi possono coesistere con quelle tradizionali SDH: le matrici
universali dovranno a tendere permettere di
sostituire completamente le matrici TDM e garantire la possibilità di gestire indifferentemente e contemporaneamente strutture
logiche a pacchetto e sincrone. Per questa
classe di apparati è data anche la possibilità
di integrare la tecnologia CWDM o DWDM
per una maggiore efficienza anche nello sfruttamento delle risorse fisiche di rete come le
fibre ottiche.
La transizione dalla coesistenza delle matrici a pacchetto e SDH a quella esclusivamente a pacchetto sarà legata all’affermarsi
di scenari con una netta prevalenza di traffico dati rispetto a quello legacy, contrariamente a quanto ancora si registra in rete.
Per Operatori che, come Telecom Italia,
hanno un’esperienza decennale con reti di
trasporto sincrone, soluzioni come quelle appena descritte possono offrire convenienza,
non tanto in termini di investimenti realizza-
NOTIzIarIO TECNICO TELECOm ITaLIa - anno18 NumeroUNO2009
tivi, quanto per la promessa di più semplice
integrazione della nuova tecnologia nei processi aziendali.
Molti costruttori di apparati dati hanno cominciato ad inserire nei loro cataloghi anche
sistemi che implementano funzionalità di
trasporto Carrier Grade anche per l’Ethernet:
questo tipo di sistemi rappresenta un’evoluzione degli switch Ethernet oggi in commercio sui quali sono integrate le funzionalità
previste dal PBB-TE (Nortel) o dal T-MPLS
(Ericsson, Huawei), oltre a funzionalità di
tipo CWDM o DWM passivo.
Il pregio di questa tecnologia è da associare al costo che dovrebbe mantenersi contenuto rispetto a quello di apparati con
funzionalità più complesse come quelli
misti SDH/T-MPLS.
Confrontando quanto oggi commercialmente disponibile per gli apparati basati su
T-MPLS e quelli basati sul Carrier Ethernet,
la differenza di costo delle due classi di sistemi sembra essere importante, tanto da
suggerire, secondo alcuni fornitori, un loro
utilizzo in sezioni di rete differenti. Rimanendo nell’ottica di una rete convergente di
trasporto a pacchetto, e mantenendo la suddivisione in sezioni di rete Metro Access,
Metro Core e Regional come nel caso della
rete di Metro/Regional di Telecom Italia,
un’ipotesi di implementazione potrebbe essere quella di impiego degli apparati Carrier
Ethernet, meno costosi e a più bassa complessità, nelle sezioni periferiche della rete,
e di inserimento nelle sezioni Metro-Core e
Regional dei sistemi T-MPLS a maggiore
complessità, trovando una valida motivazione da associare al loro maggior costo.
Qualunque saranno le scelte sistemistiche e
architetturali che verranno prese per l’evoluzione verso la Packet Optical Transport Network, un fattore chiave che non dovrà essere
sottovalutato sarà la capacità degli organismi di standardizzazione di fornire un supporto per il network management, ovvero un
object model dettagliato per i nuovi sistemi
della rete integrata.
85
trasm_ottica:Layout_NT 06/03/2009 11.55 Pagina 86
L’evoluzione della trasmissione ottica - Sergio augusto, Valentina Brizi, rossella Tavilla
Quanto costa trasportare un bit su una fibra ottica?
Nel seguito verranno esposte alcune considerazioni su quello che, nel corso degli ultimi
anni, è stato l’andamento del costo del trasporto, focalizzandosi sugli aspetti di costo relativi agli investimenti sia per il trasporto di lunga distanza nazionale sia per il trasporto
regionale e metropolitano. Gli aspetti che hanno determinato e determinano l’evoluzione
dei costi sono ovviamente due: l’innovazione tecnologica e la competizione tra fornitori.
Per quanto riguarda il trasporto DWDM i momenti di forte discontinuità tecnologica con
conseguente riduzione dei costi si sono verificati al passaggio dalla prima alla seconda
generazione dei sistemi DWDM, con incremento del numero di lunghezze d’onda su singola fibra da 16 a 40 e al passaggio della velocità di linea per singola lunghezza d’onda
da 2,5 Gbit/s a 10 Gbit/s.
Entrambi questi passaggi si sono verificati nei primi anni del 2000; successivamente,
l’evoluzione della tecnologia ha consentito la realizzazione di sistemi sempre più lunghi
e quindi con un minor numero di rigenerazioni elettriche, con un graduale e costante miglioramento delle prestazioni.
Il grosso driver che ha però governato la riduzione di costo negli anni più recenti è stato
la competizione economica tra Fornitori; il processo di individuazione di uno o più Fornitori per una determinata tipologia di apparati preveder infatti una fase di scouting tecnico
ed economico ed
una fase di vera e
propria competizione economica.
Figura a1 - andamento del costo del
trasporto di un flusso 10Gbit/s
tra roma e milano
Tale modalità di individuazione dei
Fornitori e l’aumentare della frequenza
con cui questi meccanismi di selezione/competizione sono stati implementati hanno, soprattutto nell’ultimo periodo, consentito di traguardare livelli di compressione dei prezzi
degli apparati decisamente rilevanti.
I grafici illustrano l’andamento nel corso degli anni del costo (inteso come investimento
associato per fornitura in opera degli apparati) previsto per trasportare una capacità equivalente di 10 Gbit/s rispettivamente sulla rete DWDM di lunga distanza (nel caso specifico
l’esempio riguarda un collegamento da Roma a Milano) e sulla rete DWDM Metro (considerando un anello medio di 300 km).
Il grosso salto tra il 2002 ed il 2003 tiene conto del passaggio dalla velocità di linea da
86
NOTIzIarIO TECNICO TELECOm ITaLIa - anno18 NumeroUNO2009
trasm_ottica:Layout_NT 06/03/2009 11.55 Pagina 87
L’evoluzione della trasmissione ottica - Sergio augusto, Valentina Brizi, rossella Tavilla
Figura a2 - andamento del costo
del trasporto di un flusso 10Gbit/s
su un anello di riferimento in
ambito metropolitano
2,5 a 10 Gbit/s; i delta
del 2006 e 2007 sono invece l’effetto di competizioni economiche tra i
Fornitori.
Anche il comparto DWDM Metro/Regionale e CWDM metro ha beneficiato dei progressi
tecnologici intervenuti nei primi anni di questo decennio, e la riduzione del costo degli
apparati è sicuramente legata alle sempre migliori prestazioni dei sistemi in termini di rigenerazione e di multiplazione di flussi cliente a bassa velocità su canali ottici a 2,5 Gbit/s
e soprattutto 10 Gbit/s, anche se il contributo più significativo alla costante discesa del
prezzo delle voci di listino è indubbiamente quello legato alla competizione economica
tra i fornitori, attuata con meccanismi analoghi a quelli esposti per i sistemi usati nella
sezione del trasporto su lunga distanza.
4
Conclusioni
Negli ultimi anni lo sviluppo delle tecnologie della trasmissione, maturato a fronte
delle necessità di trasportare nuovi servizi,
principalmente IP, con forte attenzione alla
riduzione degli investimenti, ha creato le
condizioni per poter modificare sostanzialmente il paradigma del trasporto.
Le nuove tecnologie sono pronte per essere introdotte nelle reti degli Operatori e
per rendere fruibili i vantaggi promessi. Tutti
gli Operatori stanno definendo le proprie
NOTIzIarIO TECNICO TELECOm ITaLIa - anno18 NumeroUNO2009
strategie evolutive, anche se il contesto
economico/finanziario ha rallentato tale processo.
Di certo la questione più sfidante da risolvere è quella dell’integrazione dei processi
aziendali e dei sistemi di gestione e di supervisione, che attualmente sono specializzati
per reti diverse sia per concezione, sia per
evoluzione e funzionamento: quelle di trasporto a circuito (SDH/WDM) e quelle dati
(Ethernet). La capacità di risolvere quella
che oggi si presenta come una dicotomia
sarà decisiva per il successo di qualunque
strategia si deciderà di seguire.
87
trasm_ottica:Layout_NT 06/03/2009 11.55 Pagina 88
L’evoluzione della trasmissione ottica - Sergio augusto, Valentina Brizi, rossella Tavilla
A
OAM
Operation Administration and
Maintenance
OAM&P
Operation Administration Maintenance and Protection
ODU
Optical Data Unit
OLO
Other Licensed Operator
OPM
Optical Packet Metro
OTH
Optical Transport Hierarchy
OTN
Optical Transport Network
PBB
Provider Backbone Bridges
PBB-TE
Provider Backbone Bridges Traffic Engineering
PBT
Provider Backbone Transport
PMD
Polarization Mode Dispersion
ROADM
Reconfigurable Optical Add
Drop Multiplexer
RTN
Rete di Trasporto Nazionale
SAN
Storage Area Network
SDH
Synchronous Digital Hierarchy
SNCP
Sub Network Connection Protection
TCO
Total Cost of Ownership
TDM
Time Division Multiplexing
T-MPLS
Transport – Multi Protocol
Label Switching
ULH
Ultra Long Haul
UMTS
Universal Mobile Telecommunications System
VC4
Virtual Container 4
VDSL
Very High Speed DSL
VLH
Very Long Haul
WDM
Wavelength Division Multiplexing
WDM-PON WDM Passive Optical Network
WSS
Wavelength Selective Switch
CRONIMI
ATM
CWDM
Asynchronous Transfer Mode
Coarse Wavelength Division
Multiplexing
DQPSK
Differential Quadrature Phase
Shift Keying
DP-DQPSK Dual Polarization DQPSK
DSLAM
Digital Subscriber Line Access
Multiplexer
DWDM
Dense Wavelength Division
Multiplexing
ESCON
Enterprise Systems Connection
FC
Fiber Channel
FEC
Forward Error Correction
FICON
Fiber Connectivity
FTTB
Fiber To The Building
FTTCab
Fiber To The Cabinet
FTTx
Fiber To The x
GBE
GigaBit Ethernet
GMPLS
Generalized Multi Protocol
Label Switching
GPON
Gigaethernet Passive Optical
Network
GTW-A
Gateway-A
IEEE
Institute of Electrical and Electronic Engineers
IETF
Internet Engineering Task Force
ISP
Internet Service Provider
ITU-T
International Telecommunication Union - Telecommunication
Standardization Bureau
LAN
Local Area Network
LH
Long Haul
LSP
Label Switched Path
MAC
Media Access Control
MAN
Metro Area Network
MPLS
Multi Protocol Label Switching
MPLS-TP Multi Protocol Label Switching
– Transport Profile
MSP-RING Multiplex Section Protection
Ring
NGN2
Next Generation Network 2
NG-SDH
New Generation – Synchronous Digital Hierarchy
OADM
Optical Add and Drop Multiplexer
88
B
IBLIOGRAFIA
[1] “La rete di trasporto ottico (OTN): stato dell’arte e prospettive evolutive” di G. Aureli e
P. Pagnan, Notiziario Tecnico di Telecom Italia, Anno 10, Nr. 1, Aprile 2001
[2] “Phoenix: la nuova rete di trasporto nazionale”
di S. Augusto e P. Pagnan, Notiziario Tecnico
di Telecom Italia, Anno 13, Nr. 2, Dicembre
2004
NOTIzIarIO TECNICO TELECOm ITaLIa - anno18 NumeroUNO2009
trasm_ottica:Layout_NT 06/03/2009 11.55 Pagina 89
L’evoluzione della trasmissione ottica - Sergio augusto, Valentina Brizi, rossella Tavilla
[3] “NGN2:il case study Milano” di M. Monacelli,
Notiziario Tecnico di Telecom Italia, Anno
2007, Nr. 2.
[4] “NGN2: la parte Metro” di M. Bianchetti, G.
Picciano, L. Venuto, Notiziario Tecnico di Telecom Italia, Anno 2008, Nr. 2.
[5] “PBB-TE, PBT, Carrier Grade Ethernet Transport” TPACK, June 2007.
[6] “T-MPLS A New route to carrier ethernet”
TPACK, June 2007.
[7] “Optical Switching Networks”, Ed. Cambridge
University Press 2008, di M. Maier
A
[8] “I sistemi DWDM: problematiche trasmissive
e loro impatto sul progetto dei collegamenti”
di G. Aureli e P. Pagnan, Notiziario Tecnico
di Telecom Italia, Anno 9 n. 2, Ottobre 2000
[9] “Il Backbone IP di Telecom Italia Wireline” di
A.M. Langellotti, S. Mastropietro, F.T. Moretti
e A. Soldati, Notiziario Tecnico di Telecom
Italia, Anno 13, Nr. 2, Dicembre 2004
[email protected]
[email protected]
[email protected]
UTORI
Sergio augusto
Valentina Brizi
rossella Tavilla
diplomato in Telecomunicazioni,
entra in Azienda nel 1983 per
occuparsi di valutazioni tecnicoeconomiche di nuove tecnologie
nella rete trasmissiva a lunga distanza.
Dal 1990 si è occupato di nuove
tecnologie e sistemi per la rete
di accesso a larga banda.
Dal 1997 opera nel gruppo di
Ingegneria dove segue le
attività di test, redazione specifiche e norme tecniche di apparati trasmissivi DWDM e reti
GMPLS ■
laureata nel 1998 in Ingegneria
delle Telecomunicazioni, nello
stesso anno entra in Telecom
Italia, dove ha seguito lo sviluppo della prima rete SDH di
lunga distanza e dei primi sistemi DWDM in Italia.
Da diversi anni opera nel
gruppo di Ingegneria che segue
l’industrializzazione degli apparati dedicati al Trasporto Ottico;
in particolare segue le attività
inerenti alle tecnologie ottiche
per le reti di trasporto di backbone nazionale e le evoluzioni
relative.
È autrice e co-autrice di diversi
articoli tecnici e contributi pubblicati su riviste scientifiche internazionali o presentati a
workshop e conferenze internazionali ■
laureata nel 2000 in Ingegneria
delle Telecomunicazioni, lo
stesso anno entra in Telecom
Italia.
Dal 2001 lavora nel settore
dell’Ingegneria della rete di trasporto. Si è inizialmente dedicata ai sistemi di Element
Management e di Network
Management della rete SDH e
xWDM. Dal 2003 lavora nell’ingegneria della rete di trasporto
dove segue le attività della rete
Metro-Regional in tecnologia
xWDM e dei relativi sistemi di
Element Management ■
NOTIzIarIO TECNICO TELECOm ITaLIa - anno18 NumeroUNO2009
89
Micro e Mini trincea:
tecnologie di scavo
nel rispetto ambientale
NGN
L
Paolo Trombetti
o sviluppo delle reti di nuova generazione costituisce una priorità del
sistema Paese; per consentire la posa in tempi rapidi e a costi
contenuti delle opere civili necessarie alla posa di nuove infrastrutture
di cavi in fibra ottica si stanno sperimentando tecnologie innovative,
capaci di recepire sia queste esigenze e al contempo in grado di
ridurre i costi socio ambientali connessi all’apertura dei cantieri.
Nell’articolo sono descritti i vantaggi dell’applicazione di questi sistemi con specifico
riferimento all’impiego della mini e microtrincea, riportando i risultati e le
impressioni emerse a seguito della sperimentazione effettuata a Roma nell’ambito
del progetto NGN2.
1
Introduzione
Il dibattito tecnologico, economico, regolatorio sulle telecomunicazioni in Europa e
nel mondo ruota intorno alle reti di nuova generazione (NGN). Il concetto di NGN è sviluppato per tener conto delle nuove realtà
nel mondo delle telecomunicazioni, quali la
maggiore concorrenza tra Operatori, la cre-
90
scita del traffico di tipo “digitale”, l’utilizzo
sempre più intenso di Internet, la domanda
crescente di servizi multimediali, il bisogno
generale di mobilità e la convergenza di reti
e servizi fissi e mobili.
Dopo anni di discussione sul tema delle
reti NGN, oggi sono disponibili sul mercato
soluzioni tecnologiche che permetteranno
agli Operatori di compiere un notevole balzo
Notiziario tecNico telecom italia - anno18 NumeroUNo2009
micro e mini trincea: tecnologie di scavo nel rispetto ambientale - Paolo trombetti
in avanti nelle loro offerte di servizi multimediali a banda larga.
Per consentire la diffusione della Rete di
Nuova Generazione è indispensabile, però,
prevedere la realizzazione di nuove infrastrutture/opere civili con conseguente disponibilità di cospicui investimenti.
Infatti a seconda della scelta operata sulle
differenti opzioni architetturali e tecnologiche, la realizzazione delle opere civili potrà
assumere un peso relativo sul totale degli investimenti. Tale incidenza sarà soprattutto
legata alla possibilità di riutilizzo delle infrastrutture esistenti e alla necessità o meno di
realizzare la componente verticale del cablaggio (componente interna agli edifici da
raggiungere).
cune delle quali sono consolidate, altre in via
di sviluppo.
Tra le diverse metodologie delle tecniche
a basso impatto ambientale si è osservato
l’uso della minitrincea e dell’evoluzione della
microtrincea (Teraspan) in due cantieri per la
posa di reti di TLC a Roma.
Nella nomenclatura internazionale la ISTT
(International Society for Trenchless Technology) ha classificato le tecniche a basso impatto ambientale come quelle tecniche che
permettono di effettuare la posa, l’esercizio
e la manutenzione delle reti dei sottoservizi,
riducendo al minimo, o eliminando del tutto
lo scavo a cielo aperto.
In tale contesto, ormai dal 2006, la ISTT
ha inserito tra queste tecnologie, anche i sistemi di posa della “minitrincea”, i quali,
seppur prevedano la realizzazione di uno
scavo a cielo aperto, per via delle sue ridotte dimensioni, minimizzano l’impatto ambientale; il gruppo a cui queste tecnologie
afferiscono è stato denominato “tecnologie
associate”.
2
Cantieri leggeri a ridotto
impatto ambientale
Scavi ed infrastrutture (canalizzazioni) per
la posa dei cavi telefonici vengono solitamente realizzati in ambito urbano sulla sede
stradale (sui bordi laterali, sulla banchina, o,
in alcuni casi, direttamente sul marciapiede).
Le operazioni si svolgono realizzando lo
scavo a cielo aperto, posando la canalizzazione , ricoprendo lo scavo stesso con terra
e successivamente ripristinando l’asfalto o
l’originale copertura tolta durante lo scavo.
Del resto la presenza di un cantiere o comunque di un ingombro della sede stradale,
del marciapiede o della banchina provoca un
notevole disagio, sia per i pedoni sia per i
veicoli in transito, direttamente proporzionale
all’estensione del cantiere ed alla durata di
tali lavori di scavo. Pertanto, minimizzare le
dimensioni del cantiere e velocizzarne al
massimo l’esecuzione è un obiettivo importante.
L’ottimizzazione dei cantieri può essere
perseguita applicando diverse tecniche, al-
2.1
Notiziario tecNico telecom italia - anno18 NumeroUNo2009
Le “tecnologie associate”
Gli Operatori nord americani alla ricerca di
una metodologia di posa per le reti di nuova
generazione che fosse al contempo veloce
e poco invasiva, hanno induato la tecnica
della “minitrincea”.
In generale, le tecnologie di posa a basso
impatto ambientale si possono raggruppare
nelle seguenti categorie a seconda delle loro
caratteristiche di impiego (figura 1).
Lo scavo a cielo aperto, di norma, comporta tutta una serie di disagi per la cittadinanza, ha ripercussioni negative sull’ambiente e pone condizioni di possibile
pericolo/danneggiamento per persone e/o
cose.
Le tecniche a basso impatto ambientale,
invece, hanno la caratteristica di ridurre si-
91
micro e mini trincea: tecnologie di scavo nel rispetto ambientale - Paolo trombetti
Figura 1 - la classificazione delle “tecnologie associate”
gnificativamente tutti questi aspetti in quanto
comportano:
■ minore movimentazione di materiale
(sfruttamento di cave, conferimento in discarica);
■ minore traffico di mezzi pesanti;
■ minore tempo e spazio di occupazione
del suolo pubblico;
■ minore effrazione del manto stradale,
quindi limitato deterioramento dello
stesso;
■ minore impatto sulla viabilità veicolare e
pedonale e sulle attività commerciali;
■ maggiore sicurezza per il cittadino, grazie
all’eliminazione dei pericoli legati agli
scavi a cielo aperto;
■ maggiore sicurezza per la manodopera
impiegata.
Studi condotti da Telecom Italia e Telecom
Italia Lab 1 (tramite l’applicazione di un modello di impatto ambientale – EPS , Environ-
1 Valutazione dei costi socio/ambientali delle tecniche di
scavo (Luca Giacomelli, Paolo Trombetti)
92
mental Priority Strategies, elaborato dalla
Federazione delle Industrie Svedesi) hanno
mostrato che, con l’impiego di queste tecniche, i costi socio-ambientali vengono abbattuti di circa l’80%, mentre gli incidenti sui
cantieri di circa il 67%.
3
Aspetti normativi
Le tecniche descritte si inquadrano nell’ambito legislativo che pone grande attenzione al tema ambientale e che è volto a:
○ evitare ogni possibile spreco;
○ incentivare il riutilizzo delle risorse disponibili;
○ razionalizzare l’impiego del sottosuolo (in
quanto risorsa limitata);
○ minimizzare i disagi al traffico veicolare
ed alla popolazione.
Citiamo, ad esempio, le seguenti prescrizioni di legge:
Notiziario tecNico telecom italia - anno18 NumeroUNo2009
micro e mini trincea: tecnologie di scavo nel rispetto ambientale - Paolo trombetti
citata, consente agli Enti Locali, gestori delle
strade, di derogare a tale prescrizione, qualora siano impiegate tecniche a basso impatto ambientale.
Il Decreto Legislativo 30 aprile 1992,
n. 285 - Codice della Strada - in base al
quale l’attraversamento sotterraneo della
sede stradale deve essere eseguito mediante perforazione orizzontale, senza manomettere la massicciata e la pavimentazione.
Tale tecnica è stata implementata allo
scopo di ridurre le dimensioni dello scavo, in
modo da poter ottimizzare le modalità operative mediante l’utilizzo di tecnologie e materiali innovativi e consentire il minor impatto
possibile sull’ambiente per la realizzazione
delle reti di TLC, pubblica illuminazione, impianti semaforici e impianti di telesorveglianza.
La Direttiva della Presidenza del Consiglio
dei Ministri del 3 marzo 1999 - Razionale sistemazione nel sottosuolo degli impianti tecnologici - che si pone l’obiettivo di favorire
tutte quelle tecniche che minimizzano gli impatti ambientali e la circolazione veicolare.
La Direttiva 2001/42/CE recepita nel decreto legislativo 152/06 recante “Norme in
materia ambientale” (più conosciuto come
“Codice dell’Ambiente”), all’art. 53, comma
1, dispone che sia assicurata la tutela del
suolo e del sottosuolo,… In particolare per
suolo si intende il territorio, il suolo, il sottosuolo, gli abitanti e le opere infrastrutturali.
4
Con particolare riferimento alla tecnica di
posa della “minitrincea” (tecnica che prevede
una profondità di scavo limitata a 30/40 cm),
si precisa che, nonostante il Codice della
Strada prescriva una profondità minima
dall’estradosso, in carreggiata, pari ad 1
metro, la Direttiva del 3 marzo 1999, sopra
La “minitrincea”
La “minitrincea” viene eseguita utilizzando
idonee frese/scavacanali a disco (figura 2)
montate su opportuna macchina operatrice
di piccole dimensioni. Il taglio dello scavo risulta netto in superficie, evitando in modo
assoluto di lesionare la pavimentazione limitrofa alla sezione di scavo.
Non sono consentiti bruschi cambi di direzione dei percorsi, ove questi siano richiesti dovranno effettuarsi tramite tagli angolati,
tali da consentire il rispetto del minimo raggio
di curvatura dei minitubetti e/o dei monotubi
di raccordo.
La tecnica della minitrincea è applicabile,
su tracciati che contemplino generalmente
superfici asfaltate e/o in calcestruzzo, quali
strade e marciapiedi aventi un sottofondo di
materiale compatto.
L’utilizzo di tale tecnica non è invece consigliabile nei percorsi dove sono presenti
strade sterrate, ad eccezione di eventuali
brevi attraversamenti stradali (purché comunque con sottofondo di tipo compatto),
Figura 2 - lo scavo della “minitrincea”
Notiziario tecNico telecom italia - anno18 NumeroUNo2009
93
micro e mini trincea: tecnologie di scavo nel rispetto ambientale - Paolo trombetti
che potranno essere realizzati con la stessa
tecnica di scavo, utilizzando per il riempimento materiale omogeneo a quello circostante. Tale tecnica non è altresì
consigliabile dove sono presenti sottofondi
con trovanti di medie dimensioni (aventi un
lato > 15 cm) o ghiaiosi o in terreni sciolti
quali sabbie, limi, argille o similari.
La nuova infrastruttura di posa è idonea a
contenere monotubi di diametro 50 e/o 40
mm., che possono essere sotto armati con
microtubi, consentendo così di poter disporre di un’infrastruttura in grado di ospitare
un maggior numero di cavi in fibra ottica.
La “minitrincea” inoltre deve essere normalmente realizzata effettuando contemporaneamente il disfacimento della pavimentazione e uno scavo avente sezione di
larghezza minima di 5 cm e profondità compresa tra 30 e 40 cm. Per l’utilizzo di tale
tecnica si raccomanda una profondità minima di scavo di 30 cm (figura 3).
La determinazione della corretta sede di
posa viene valutata in base alla presenza dei
sottoservizi ed alla loro posizione, che, oltre
ad essere rilevata tramite indagini georadar,
Figura 3 - Sezione di scavo della “minitrincea”
realizzate fino ad una profondità di 1,5 m
oltre all’impiego di eventuali cerca servizi; il
tutto anche con le documentazioni cartografiche disponibili presso gli Enti proprietari
della strada o dei Servizi.
4.1
Pulizia dello scavo
Durante la fase di realizzazione della minitrincea è necessario garantire l’accurata
pulizia a secco dello scavo e la contemporanea rimozione dei materiali di risulta.
Tali operazioni vengono eseguite con opportuni metodi di abbattimento delle polveri,
al fine di mantenere la pulizia del cantiere e
di contenere il disagio della cittadinanza e
l’inquinamento ambientale.
Al termine di questa attività la sezione di
scavo deve risultare svuotata e il fondo privo
di sassi sporgenti; la trincea stessa e la zona
immediatamente circostante devono essere
totalmente ripulite dal materiale di risulta,
che potrebbe ridurre le caratteristiche meccaniche del materiale di riempimento.
La pulizia del solco può avvenire anche
contestualmente alla fase di realizzazione
della minitrincea, utilizzando solitamente
macchine aspiratrici opportunamente collegate alla fresa tramite tubo snodato.
Predisposto lo scavo si procede, eseguendo la posa delle strutture di minitubi e/o
dei monotubi per poi passare al riempimento
dello scavo.
4.2
Riempimento della minitrincea
Il riempimento della trincea viene effettuato mediante colatura, entro la sede predisposta, di malta rapida, di consistenza
fluida, a base di cementi ad alta resistenza,
aggregati selezionati e speciali additivi. Il
94
Notiziario tecNico telecom italia - anno18 NumeroUNo2009
micro e mini trincea: tecnologie di scavo nel rispetto ambientale - Paolo trombetti
materiale deve presentare caratteristiche di
presa tali da permettere il rilascio di una
sede stradale carrabile e idonea all’utilizzo
in tempi brevissimi (entro 2-4 ore dalla posa).
Nella fase sperimentale un materiale idoneo
è stato individuato nel “Trench-Fill”.
Il riempimento garantisce le seguenti prestazioni di qualità:
■ stabilità dimensionale in servizio senza
registrare alcun cedimento;
■ completo riempimento dello scavo;
■ tempi di presa e uno sviluppo delle resistenze meccaniche tali da permettere la
riapertura delle sedi stradali dopo 2-4 ore
dall’esecuzione del rinterro;
■ assenza di crepe e/o fessurazioni;
■ impermeabilità all’acqua;
■ elevata resistenza all’abrasione;
■ elevata fluidità e scorrevolezza senza
l’ausilio di alcuna compattazione manuale
o meccanica.
coli dovranno comunque essere rimossi
prima della posa del materiale di riempimento.
5
Il materiale di riempimento, oltre a bloccare l’infrastruttura sul fondo della minitrincea, ha la funzione di garantire la protezione
sia di tipo meccanico, che dai roditori dell’infrastruttura posata.
Durante la posa delle strutture di minitubi
e/o di monotubi dovrà essere garantita la
geometria dell’infrastruttura e non dovranno
verificarsi innalzamenti indesiderati; se necessario, prima di eseguire le attività di riempimento, gli stessi
potranno essere preventivamente vincolati
sul fondo della minitrincea tramite pesi posizionati in punti discreti
lungo lo scavo; tali vin-
La ”minitrincea” sperimentale
a Roma
Nell’ambito del progetto NGN2 a Roma,
nell’ottobre 2008 si è proceduto alla prima
sperimentazione della tecnica di scavo “minitrincea”, in un tratto di carreggiata individuato su via Faravelli e via Teulada. .
La sperimentazione ha previsto il taglio
della pavimentazione per circa 90 mt e l’interposizione di un pozzetto 40x80 e di uno
125x80 per alimentare quattro apparati
ONU previsti all’interno di tre fabbricati (figura 4).
La figura 5 evidenzia lo scavo risultante,
pulito attraverso una spazzola con serbatoio
posta sul braccio di un Bob Cat.
Successivamente alla realizzazione del
taglio e alla pulitura dello stesso si è provveduto alla posa dei tubi (figura 6a e successivamente alla chiusura della minitrincea
con il riempimento figura 6b).
Figura 4 - Fasi dello scavo
“minitrincea” con scavo di
circa 5 cm
Notiziario tecNico telecom italia - anno18 NumeroUNo2009
95
micro e mini trincea: tecnologie di scavo nel rispetto ambientale - Paolo trombetti
Figura 5 - Pulizia dello scavo
Nella figura 7 lo stato dei lavori a distanza
di qualche settimana.
Nell’ambito della stessa sperimentazione
“romana” si è anche provveduto a testare un
materiale innovativo per il riempimento dello
scavo.
Il materiale in oggetto è costituito da un
nastro che su un lato presenta un adesivo a
forte presa e sull’altro materiale asfaltico
sabbioso di circa 3 mm di spessore. Il nastro
è stato posizionato attraverso adeguata
pressatura in opera sulla traccia di minitrincea eseguita su marciapiede (figura 8).
Figura 6 - la posa dei cavi e il riempimento
(a)
96
(b)
Notiziario tecNico telecom italia - anno18 NumeroUNo2009
micro e mini trincea: tecnologie di scavo nel rispetto ambientale - Paolo trombetti
Figura 7 - la “minitrincea”
a fine lavori
Figura 8 - il “nuovo” riempimento
La sperimentazione ha messo in evidenza le potenzialità di questo sistema che,
pur presentando ancora dei margini di miglioramento, già ora consente, in ambito urbano, di completare (scavo, posa tubi e
chiusura scavo), un cantiere di 90 m in sole
2 ore, consentendo ai residenti di accedere
ai garage, posti per i diversamente abili o
abitazioni senza difficoltà.
6
Notiziario tecNico telecom italia - anno18 NumeroUNo2009
La ”microtrincea”
Per la “microtrincea” possiamo affermare
che le fasi di lavorazione sono pressoché le
stesse previste per la “minitrincea”:
■ individuazione dei servizi tecnologici
esistenti attraverso l’impiego di sistemi
radar e la verifica incrociata con i dati in
97
micro e mini trincea: tecnologie di scavo nel rispetto ambientale - Paolo trombetti
■
■
■
■
■
possesso dei gestori delle strade e dei
servizi;
esecuzione del taglio a mezzo di un taglia asfalti;
pulizia dello scavo;
posa di un conduttore di terra sul fondo
dello scavo;
posa di una canaletta cablata fuori terra,
attraverso particolari sistemi di guida e
serraggio;
riempimento dello scavo prima con sabbia e poi, per gli ultimi 3 cm, con asfalto
colato.
Questo sistema si differenzia però per la
larghezza del taglio, che è pari a circa 2 cm,
e per la profondità, che raggiunge al massimo i 25 cm.
L’innovazione tecnologica introdotta dalla
“microtrincea” è rappresentata da una particolare canaletta in materiale plastico, che,
prima della posa nello scavo, viene armata
in campo con il numero e potenzialità di cavi
previsti in fase di progettazione.
Sempre nella zona, servita dalla centrale
Roma Prati, si è sperimentata anche questa
tecnica innovativa di scavo.
Nello specifico si è trattato di una posa
mista (figura 9), dove il primo tratto è stato
realizzato su marciapiede, e poi è stato ese-
guito un attraversamento stradale. La posa
è avvenuta a fianco del cordolo del marciapiede e a fianco di un’aiuola.
Questo scavo, in caso di necessità, può
essere chiuso con un’apposita guaina
(figura 10) che consente la chiusura provvisoria della sede di posa e la riapertura al
transito del tratto interessato, in attesa di
completare l’intero percorso e per la successiva posa dei cavi.
Dopo la verifica e pulizia dello scavo, si è
poi provveduto a posare sul fondo un conduttore di terra, necessario alla ricerca e individuazione del percorso cavi. Al di sopra
del conduttore è stata poi posata una canaletta a 4 cave cablata fuori terra, attraverso
particolari sistemi di guida e serraggio
(figura 11).
Il riempimento dello scavo è stato infine
eseguito allettando la canaletta con sabbia
e richiudendo la parte superiore con circa
3 cm di tappetino in asfalto fine, posato a
caldo e costipato. Nella figura 12 come si
presenta il lavoro a distanza di pochi giorni.
Sul marciapiedi è stato poi posato un elemento di raccordo e diramazione (figura 13).
La buca è stata eseguita attraverso un’apposita fresa che realizza un carotaggio a misura. Il coperchio di chiusura viene posato in
linea con la pavimentazione esistente.
Il pozzetto viene posato all’interno della
buca e fissato alla base con del calcestruzzo, mentre la rimanente parte viene
riempita con materiali inerti o stabilizzati.
All’interno del pozzetto vengono ancorate, attraverso specifici accessori, le canalette cablate con i cavi in fibra. Sempre
al suo interno è prevista, inoltre, l’allocazione di uno speciale kit per l’inserimento
di moduli di giunzione ed alloggiamento
Figura 9 - la sede dello scavo della
“microtrincea” a roma
98
Notiziario tecNico telecom italia - anno18 NumeroUNo2009
micro e mini trincea: tecnologie di scavo nel rispetto ambientale - Paolo trombetti
Figura 10 - la guaina di chiusura
Figura 11 - Sistemi di serraggio
Figura 12 - la “microtrincea” a pochi
giorni di distanza dalla fine lavori
Figura 13 - l’elemento di raccordo
della “microtrincea”
Notiziario tecNico telecom italia - anno18 NumeroUNo2009
99
micro e mini trincea: tecnologie di scavo nel rispetto ambientale - Paolo trombetti
scorte (circa 40 mt. complessivi) per sviluppi futuri e/o pose
da completare successivamente (figura 14).
La “microtrincea, quindi, introduce delle sostanziali novità per le ridottissime
dimensioni degli scavi che di
fatto si concretizzano in un
minore impatto ambientale, riduzione dell’area di cantiere e
taglio sui costi per lo smaltimento delle terre di risulta,
per i riempimenti degli scavi e
il rifacimento delle pavimentazioni.
Figura 14 - il “kit” di moduli di giunzione
7
Conclusioni
L’utilizzo di cantieri “leggeri” nelle sperimentazioni NGN a Roma ha evidenziato
come questi possano essere efficacemente
adottati in un ampio spettro di casistiche, in
quanto consentono di ridurre sia le dimensioni dei macchinari utilizzati, sia il tempo di
occupazione delle sedi stradali.
Queste tecniche sono particolarmente idonee per le aree congestionate ad elevata urbanizzazione, in quanto permettono di
ridurre gli ingombri ed i tempi di apertura dei
cantieri, di operare nella massima pulizia, di
rilasciare una sede stradale carrabile ed idonea all’utilizzo in tempi brevissimi e di evitare
operazioni costose; il tutto riducendo il disagio per i pedoni e per i veicoli in transito.
Perché tali tecniche possano trovare larga
applicazione, è auspicabile potenziare la
sensibilizzazione delle Amministrazioni e
degli Uffici Locali competenti al rilascio dei
permessi di scavo per adeguare, ove necessario, i disciplinari comunali e provinciali,
rendendoli compatibili a queste tecniche di
realizzazione a basso costo e di ridotto im-
100
patto sull’urbanistica, sull’ambiente e sui cittadini. E su questo aspetto una valida azione
è quella che sta facendo la IATT (Italian Association for Trenchless Technology) associazione per la promozione delle tecnologie
non invasive, di cui anche Telecom Italia fa
parte.
A
CRONIMI
EPS Environmental Priority Strategies
IATT Italian Association for Trenchless
Technology
ISTT International Society for Trenchless
Technology
NGN Next Generation Network
[email protected]
Notiziario tecNico telecom italia - anno18 NumeroUNo2009
micro e mini trincea: tecnologie di scavo nel rispetto ambientale - Paolo trombetti
A
UTORE
Paolo trombetti
in Azienda dal 1987 ha svolto molteplici incarichi specializzandosi in ingegnerizzazione
dei materiali di reti di TLC,apparati di rete e tecniche di posa con sistemi a basso impatto ambientale. Attualmente nell’ambito della funzione Operational Planning è in Certification System e si occupa di convenzioni con Enti per la definizione dei rights of
way.
È docente e autore di diversi articoli e metodologie sulle tematiche relative alle tecnologie di posa non invasive, è stato Rapporteur in ambito ITU (International Telecommunication Units) nella commissione di diffusione delle raccomandazioni per l’impiego
di queste tecniche.
È Presidente dello IATT (Italian Association for Trenchless Technology) per il periodo
2008-2012 ■
Notiziario tecNico telecom italia - anno18 NumeroUNo2009
101
Atomi e Bit:
l’internet con le cose
INNOVAZIONE
D
Roberto Saracco
a diversi anni si parla di Internet delle cose, Internet of things,
concetto che ha trovato ormai una vasta applicazione nel
cosiddetto M2M, comunicazione Macchina – Macchina. Questo
rappresenta, a fine 2008, un volume di 14,1 milioni di SIM
(1,9 milioni in Italia, primi in Europa) dedicate al M2M con una
previsione di 52 milioni a fine 2013 (Berg Insight), anno in cui il 62% delle
comunicazioni M2M basate su SIM sarà legato al settore automotive. Tutto ciò
senza contare i sistemi di telelettura contatori di energia (diversi milioni in Italia, il
paese più avanzato in questo settore) 1.
Nel 2006 Sergey Brin, uno dei fondatori di Google, parlando agli azionisti dichiarò
che il loro motore di ricerca non sarebbe stato completo fino al 2018, anno in cui
sarebbe stato possibile porre la domanda “dove ho lasciato le chiavi della
macchina” ed ottenere la risposta “dentro al secondo cassetto del mobile in camera
da letto”.
Bene, questa è l’Internet con le cose, un’idea che diventa sempre più praticabile,
grazie alla crescita tecnologica nel settore dell’identificazione di oggetti, alle
comunicazioni pervasive a costo percepito zero dal cliente finale e, infine, alla
fruibilità del tutto reso possibile dall’onnipresenza di interfacce personali portatili, che
1 Per le ultime notizie su questo settore si può seguire la conferenza M2M forum ad aprile 2009 a Milano
(http://www.m2mforum.com/eng/)
102
NOtIZIArIO tEcNIcO tElEcOm ItAlIA - Anno18 NumeroUNO2009
Atomi e Bit: l’Internet con le cose - roberto Saracco
possiamo chiamare “telefonini”, che, a loro volta, accedono a strutture di
aggregazione delle informazioni e servizi, chiamate mash ups. A questo manca, per
ora, un sistema economico sostenibile di per sé. Alcune applicazioni o vengono
considerate investimenti pro futuro, oppure si poggiano a modelli economici radicati
su altri valori, in grado con i loro margini di sostenere questi nuovi mercati, in cui
esiste sì una offerta crescente, ma a cui corrisponde una domanda che non si
accompagna ad una disponibilità di spesa.
A tutto ciò si rivolge il progetto “Atomi e Bit” del Future Centre di Telecom Italia. In
questo articolo vedremo quindi nell’ordine le tecnologie di identificazione e la loro
evoluzione nei prossimi anni, le modalità di aggregazione dell’ecosistema che
caratterizza l’Internet con le cose, la fruizione tramite mash ups e i modelli di
business. Per chiudere e per chiarire il valore per il cliente finale, si presenteranno
alcuni scenari di applicazione dell’Internet delle cose.
1
Evoluzione delle tecnologie di
Identificazione
1.1
I codici a barre e i QR
Le etichette che troviamo sui prodotti dei
supermercati sono basate sulla tecnologia
dei bar code e in genere definiscono il tipo
di prodotto ed alcune sue caratteristiche, ad
esempio il peso, in modo tale da consentire
l’attribuzione del prezzo alla cassa. Non
sono, in generale, degli identificatori che distinguono quel particolare pezzo da tutti gli
altri. Il motivo per cui non si identifica quel
particolare prodotto, ma quel tipo di prodotto
è che ai fini della vendita quella informazione
non serve. In genere si preferisce inserire
sull’etichetta le informazioni che consentono
di calcolare il prezzo di vendita, piuttosto che
direttamente il prezzo. Questo consente una
maggiore flessibilità, ad esempio per variare
il prezzo durante un periodo di saldi. In generale il prezzo viene indicato sullo scaffale
NOtIZIArIO tEcNIcO tElEcOm ItAlIA - Anno18 NumeroUNO2009
e aggiornato se viene variato. In alcuni supermercati (in Francia la cosa è ormai molto
diffusa) il prezzo riportato sullo scaffale è visualizzato tramite un piccolo schermo collegato via radio al sistema informativo del
supermercato per cui diventa semplice cambiarlo.
Per la lettura del codice a barre si utilizzano dei raggi laser. Il raggio del laser presenta due vantaggi importanti. È molto
sottile, per cui è in grado di leggere particolari molto piccoli. Inoltre ha una frequenza
ben precisa, in genere si utilizza il colore
rosso, in quanto è quello meno costoso da
produrre, e questo permette al rilevatore di
trascurare altri raggi luminosi che potrebbero
confondere la lettura.
Il raggio viene riflesso e intercettato da un
lettore che trasforma la presenza o l’assenza
di una riflessione in 0 e 1.
Un altro sistema per la lettura dei codici a
barre è costituito da lettori in tecnologia CCD
(Charged Coupled Device). In questo caso il
lettore è fatto da un sensore di luce che contiene centinaia di pixel. Spesso il bordo del
sensore illumina l’etichetta e la luce riflessa
103
Atomi e Bit: l’Internet con le cose - roberto Saracco
viene catturata dai pixel che la trasformano
in una copia dell’etichetta, permettendo ad
un’applicazione di individuare barre e spazi.
Nel passato erano stati prodotti alcuni cellulari in grado di leggere il codice a barre, ma
la cosa non ha preso piede per la sostanziale
inutilità: occorre infatti che tutto il sistema si
evolva perché a livello mass market sia di interesse l’identificazione di un prodotto. Un’ulteriore barriera alla diffusione è stato il fatto
che occorreva aggiungere al telefonino un sistema di lettura aumentandone il costo.
Oggi questo incremento di costo non è
necessario, in quanto si può sfruttare un sistema per la lettura basato su del software
che riconosce l’etichetta fotografata dalla
macchina fotografica inclusa nel telefonino.
In teoria, quindi, qualunque telefonino potrebbe scattare la foto ad un’etichetta e un
apposito software effettuarne la conversione. In pratica però messa a fuoco, luminosità e risoluzione pongono dei limiti a
questo tipo di rilevazione da parte di un telefonino. Occorre disporre di etichette ottiche basate su sistemi diversi rispetto al
codice a barre, ad esempio le QR (Quick
Response) (figura 1).
Queste etichette bidimensionali possono
contenere molte più informazioni di un co-
dice a barre. Addirittura è possibile memorizzare una canzone o un’immagine. Ciò permette di associare informazioni all’oggetto
etichettato senza ricorrere al collegamento
ad Internet. In genere le etichette sono
scritte con inchiostro nero, ma in alcuni casi
si possono usare più colori. Questi possono
essere utilizzati per aumentare il numero di
informazioni scritte, oppure per fornire direttamente informazioni all’occhio che guarda
l’etichetta, lasciando all’inchiostro nero il
compito di codificare le informazioni che saranno lette dall’applicazione che analizza la
foto dell’etichetta.
È ovvio, comunque, che il salto in termini
di informazioni viene raggiunto nel momento
in cui l’etichetta viene utilizzata come puntatore ad un sito sul Web in cui sono memorizzate le informazioni relative a quel prodotto.
In questo modo la quantità e varietà di informazioni non ha limite. Altrettanto ovvio che
per realizzare questo, occorre disporre di
connettività e proprio per questo il telefonino,
specie se con un grande schermo, si presenta come il sistema ideale.
1.2
Le etichette RFID
Le etichette RFID sono dei
sistemi elettronici in grado di
ricevere richieste di informazioni ed inviare un segnale
con le informazioni possedute.
Si compongono di una parte
relativamente grande, alcuni
centimetri, che serve da antenna ricevente e trasmittente
e da un piccolissimo granello
di silicio che contiene le informazioni oltre ad un micropro-
Figura 1 - codice a barre lineare e
Qr code
104
NOtIZIArIO tEcNIcO tElEcOm ItAlIA - Anno18 NumeroUNO2009
Atomi e Bit: l’Internet con le cose - roberto Saracco
cessore in grado di riconoscere il segnale e
di trasmettere le informazioni.
Sulla base del funzionamento si distinguono tre categorie di RFID: quelle attive,
quelle semi attive e quelle passive. Le prime
e le seconde hanno un sistema di alimentazione che consente loro di svolgere le funzioni richieste, le prime in modo completo le
seconde per la sola parte di elaborazione.
Queste ultime, così come le RFID passive,
utilizzano l’energia generata dal lettore sotto
forma di onde radio per tramettere le informazioni e intercettare l’antenna. Nel caso
delle RFID passive anche l’energia richiesta
per il funzionamento del microprocessore arriva dal lettore.
L’antenna ha un ruolo fondamentale per
ottimizzare la ricezione e la trasmissione e
riuscire a catturare quanta più energia possibile dall’onda elettromagnetica creata dal
lettore. Motivi pratici impongono però dei limiti all’antenna: non è pensabile di mettere
un’antenna che superi qualche centimetro su
di una confezione… Per migliorare l’efficienza dell’antenna spesso questa viene
realizzata come una spira tubolare. Questo
tipo di “carrozzeria” viene utilizzato, ad
esempio, per mettere le RFID nei turaccioli
delle bottiglie da vino ed è anche utilizzato
per le etichette da impiantare sotto pelle.
I vincoli di dimensione dell’antenna e
anche dell’intensità di campo elettromagnetico generabile portano a distanze tra lettore
ed etichetta, nel caso di etichette passive o
semi attive, inferiori ai 6 metri. In alcuni casi
le distanze possono essere molto ridotte, il
lettore deve trovarsi quasi a contatto con
l’etichetta perché questa diventi leggibile. In
genere queste modalità di comunicazione
vanno sotto il nome di NFC (Near Field
Communication). Per alcuni tipi di applicazione questa modalità rappresenta un vantaggio; ad esempio l’etichetta non può
essere letta a distanza e quindi ci si accorge
se qualcuno vuole leggerla. È il caso di etichette utilizzate nel settore bancario in Giappone per effettuare pagamenti. Il telefonino
NOtIZIArIO tEcNIcO tElEcOm ItAlIA - Anno18 NumeroUNO2009
deve essere appoggiato sulla cassa, perché
venga riconosciuto.
Nel caso delle etichette attive, invece,
l’energia richiesta alla trasmissione delle informazioni viene fornita da una batteria o
altro sistema di alimentazione e diventa
quindi possibile coprire delle distanze fino a
100 metri tra lettore ed etichetta.
Il lettore emette un campo elettromagnetico su una frequenza ben definita (esistono
diversi standard di frequenza a seconda
delle applicazioni) e con questo campo va ad
intercettare tutte le etichette che sono situate
nella zona in cui è efficace. Ogni etichetta
emette l’informazione che possiede e questa
è diversa per ogni etichetta. In applicazioni,
come nel settore della logistica, un singolo
lettore riesce a leggere fino a 800 etichette
in contemporanea. È possibile, ad esempio,
per un lettore leggere le etichette di tutte le
magliette presenti su di uno scaffale o contenute in uno scatolone.
Oltre alla distinzione tra attive, semi attive
e passive, le etichette si distinguono anche
per la possibilità di essere a sola lettura (le
informazioni sono state scritte nel momento
in cui è stata realizzata l’etichetta), di permettere una sola scrittura e poi infinite letture
(WORM, Write Once Read Many – Scrivi
Una volta, Leggi Molte volte), o permettere
un numero illimitato di scritture e letture.
La quantità di informazioni memorizzabili
in un’etichetta RFID può andare da pochi
byte a qualche kB. In genere si considerano
2000 byte come la quantità di riferimento.
Essendo sostanzialmente un chip con un’antenna, tuttavia, non sarebbe un problema
creare delle RFID con una capacità di memoria decisamente maggiore. Questo non si
sposa con l’idea di “etichetta” per identificare
un oggetto. Le svariate informazioni che potrebbero essere collegate all’oggetto, infatti,
possono essere memorizzate in un qualunque punto della rete ed essere indirizzate e
recuperate sulla base della identità fornita
dall’etichetta e quindi, anche per queste, il
telefonino si presenta come il candidato
105
Atomi e Bit: l’Internet con le cose - roberto Saracco
ideale per la loro lettura. In Giappone sono
ormai oltre 13 milioni i telefonini in grado di
leggere etichette RFID. Il problema della sostituzione degli attuali telefonini con nuovi
modelli in grado di leggere le RFID potrebbe
essere superato con SIM evolute che incorporano il sistema ZiGBee.
1.3
Printed electronics
Il parametro costo è l’elemento dominante
quando si parla di etichette da applicare all’identificazione di un prodotto. Secondo l’organizzazione che cura lo sviluppo e
standardizzazione delle RFID un costo superiore ai 5 centesimi di dollaro ne impedisce l’adozione nella grande distribuzione. E
questo costo deve comprendere etichetta e
procedura di etichettatura. Per una vera e
propria diffusione capillare, che porti alla sostituzione degli onnipresenti codici a barre,
occorre scendere sotto il centesimo. Oggi
siamo a qualche decina di centesimi, 50
Figura 2 - la differenza tra l’elettronica stampata
e quella convenzionale
106
volte oltre quello che è considerato il punto
di adozione generalizzato.
Per questo arriva una nuova tecnologia: la
printed electronics, cioè l’elettronica stampata (figura 2).
I chip che conosciamo sono realizzati con
un processo di incisione (etching). Questo
procedimento è estremamente costoso per
gli impianti che occorre realizzare. La miniaturizzazione raggiunta, 40 nanometri a fine
2008, comporta costi oltre 2 miliardi di dollari
per un singolo impianto di produzione. Solo
grazie agli enormi volumi si riesce ad avere
costi contenuti che oggi, sono intorno ai
2-5 $ al millimetro quadro di chip. Il chip presente in un’etichetta elettronica è molto più
piccolo di un millimetro quadro, ma i costi
sono comunque nell’ordine di qualche decina di cent a cui occorre aggiungere quelli
del packaging, cioè dell’assemblaggio del
chip con l’antenna e la sua collocazione
sull’oggetto da etichettare.
La printed electronics viene realizzata con
un processo completamente diverso, un processo di stampa: da qui il nome “printed”.
Viene utilizzato un insieme di inchiostri
che sono spruzzati da stampanti tipo ink-jet,
come quelle spesso usate nelle nostre case
per stampare le foto. Queste stampanti sono
tuttavia notevolmente più raffinate con una
risoluzione anche inferiore a 20 m.
Ogni cartuccia ha un iniettore comandato da un computer che
spruzza una goccia da un
NOtIZIArIO tEcNIcO tElEcOm ItAlIA - Anno18 NumeroUNO2009
Atomi e Bit: l’Internet con le cose - roberto Saracco
miliardesimo di litro di soluzione in cui si
possono trovare vari composti tra cui silicio,
carbonio, conduttori metallici, nanoparticelle
che creano il circuito. A differenza dell’elettronica classica in cui il chip deve essere
poi montato e collegato all’antenna, nel caso
della printed electronics l’antenna viene
stampata insieme al resto, abbattendo
quindi i costi. Nel tempo si arriverà a stampare, perlomeno nel caso di circuiti semplici
come tutto sommato sono quelli usati dalle
etichette elettroniche, direttamente sulla
confezione o sull’oggetto, diminuendo ulteriormente i costi.
I sistemi che si stanno progettando per la
stampa industriale di etichette elettroniche
tramite il processo di printed electronics (processo flexografico) dovrebbero avere una
capacità produttiva di oltre 10.000 m2/h, il
che significa una produzione di oltre 20 milioni di etichette all’ora! L’adattamento del
processo di stampa tramite inkjet (100 m2/h
con risoluzione di 50 m), invece, porta a livelli di produzione molto inferiori, circa 8.000
pezzi all’ora, comunque sufficienti per svariate applicazioni, ad esempio etichettature
in un supermercato.
Complessivamente un’etichetta realizzata
in questo modo dovrebbe avere un costo inferiore, di molto, al centesimo di dollaro.
Questo porta a dire che nella prossima decade ogni oggetto prodotto avrà la sua etichetta elettronica, allo stesso modo in cui
oggi ogni oggetto ha un codice a barre.
1.4
Le etichette ottiche (olografiche)
Un’altra tecnologia per identificare un oggetto è quella delle etichette ottiche. Queste
sfruttano il principio dell’olografia per cui
sono spesso chiamate etichette olografiche.
Sono in genere realizzate su polimeri in
grado di riflettere/rifrangere un raggio di luce
incidente. Anche se alcune sembrano piatte,
NOtIZIArIO tEcNIcO tElEcOm ItAlIA - Anno18 NumeroUNO2009
come dei codici a barre, queste etichette
sono in realtà strutture tridimensionali. Altre
etichette sono a forma di cubetto, pochi millimetri di lato. Il principio di funzionamento è
lo stesso. Due raggi laser vengono trasmessi dal lettore verso l’etichetta. La struttura atomica di questa crea una rifrazione
che viene analizzata dal lettore e tradotta in
una stringa di bit.
Esistono varie tipologie di etichette olografiche, da quelle che presentano un’immagine
a quelle che ad occhio nudo sembrano essere un insieme di colori cangianti, ma che
ad un lettore appaiono come stringhe di bit.
Le prime sono utilizzate per permettere di
verificare l’autenticità del prodotto, basandosi sul fatto che è costoso realizzare un ologramma e sull’impossibilità di trasferire un
ologramma da un oggetto ad un altro (ad
esempio una carta di credito).
Un tipo di etichetta olografica è realizzata
con due sottili fogli di mylar (poliestere); sul
primo apparirà l’immagine olografica, mentre
il secondo è ripiegato e incollato a caldo. Più
coppie sono assemblate per creare ologrammi complessi e tagliati poi con le dimensioni volute. L’immagine, o le stringhe di bit,
sono create nel processo di realizzazione e
qualunque manomissione all’etichetta distrugge l’informazione. Altri tipi di etichette
sono realizzate con polimeri che formano
una struttura tridimensionale. A differenza di
quelle realizzate in mylar queste etichette
possono essere scritte da appositi apparati.
Nel caso in cui l’etichetta sia utilizzata per
contenere stringhe di bit, queste diventano
leggibili a ben precise frequenze della luce
utilizzata dal lettore. È possibile quindi realizzare etichette che contengono stringhe distinte, ciascuna visibile a certe frequenze per
cui si possono realizzare lettori che, operando a frequenze diverse, leggeranno informazioni diverse accedendo alla stessa
etichetta. La frequenza utilizzata per la lettura (la lunghezza d’onda della luce utilizzata) può variare tra i 380 THz e i 750 THz.
Siamo quindi a frequenze di 100.000-
107
Atomi e Bit: l’Internet con le cose - roberto Saracco
1.000.000 di volte maggiori rispetto a quelle
delle RFID e siccome la quantità di informazioni, che è possibile codificare, è legata alla
frequenza (lunghezza d’onda), un’etichetta
olografica può contenere enormi quantità di
informazioni, dell’ordine dei GB.
Lo svantaggio di queste etichette, rispetto
a quelle RFID, è il fatto che devono essere
visibili al lettore, non è quindi possibile leggere etichette su magliette chiuse in uno
scatolone come accade con le etichette
RFID. Inoltre ogni etichetta viene letta singolarmente, non si possono leggere insieme
più etichette. Le applicazioni massa market
sono quindi escluse.
1.5
Riconoscimento immagine
Non tutti gli oggetti, però, si prestano ad
avere un’etichetta. Pensiamo ad un palazzo,
ad un giardino… Qualcuno dirà anche: pensiamo a noi… che viviamo benissimo senza
essere etichettati!
Un meccanismo interessante, anche perché è quello principalmente utilizzato da noi
stessi nella vita di ogni giorno, è il riconoscimento di immagine.
Uno dei primi passi per il riconoscimento
dell’immagine è quello di definire il contesto.
Un’applicazione di riconoscimento opera in
un contesto sia di regole, sia di elementi predefiniti. Le regole servono a capire la relazione possibile tra oggetti, gli elementi
predefiniti servono a delimitare il numero di
scelte possibili. Questi elementi predefiniti
sono in genere classi (ad esempio frutta,
mobili, facce…) e ciascuna classe ha delle
proprietà associate, che, in qualche modo,
ne descrivono le possibili varianti (una faccia
può essere parzialmente coperta da capelli,
da barba, può essere presentata di profilo,
può avere un colore più o meno scuro ma in
genere ha due aperture in alto – occhi – una
centrale in basso – bocca – e così via).
108
I progressi nel settore del riconoscimento
di immagini sono stati notevolissimi e ci si
sta avviando verso una rivoluzione nell’approccio: anziché seguire un approccio deduttivo, basato sulle proprietà degli oggetti
possibili, si va verso un’analisi statistica, paragonando una data immagine con milioni di
altre immagini,cercando quella che più somiglia e di cui esiste una descrizione dei componenti.
Ricercatori del MIT hanno recentemente
scoperto che bastano poche informazioni
per arrivare a classificare il soggetto di
un’immagine, secondo un processo di riconoscimento che sembra quello utilizzato
dagli animali. Sfruttando altre informazioni,
ad esempio la localizzazione, è possibile
passare dalla classificazione all’identificazione: quello è un monumento, sono in
piazza San Carlo a Torino, allora quella è la
statua del “Caval ‘d bruns”.
Con il meccanismo sviluppato, i ricercatori
sono riusciti a memorizzare in 600 MB quasi
13 milioni di fotografie, ciascuna con la descrizione del contenuto.
Chiaramente se l’immagine è fuori dall’usuale, sarà difficile trovarne una simile e
quindi riconoscere il contenuto, ma per la
stragrande maggioranza dei casi il sistema
funziona.
Una tecnologia utilizzata per il riconoscimento di oggetti all’interno di un’immagine è
quella della Pattern Recognition (Riconoscimento di Sequenze). A differenza del Pattern
Matching, in cui si vanno a paragonare in
modo molto rigido le informazioni estratte
dall’immagine in esame con una campione
(ad esempio per riconoscere delle impronte
digitali), nel Pattern Recognition, una delle
discipline che studiano l’apprendimento da
parte delle macchine, si parte da una classificazione effettuata su una conoscenza a
priori di pattern precedentemente riconosciuti.
Le sequenze estratte sono in genere dei
gruppi di misure e osservazioni. Il Pattern
Recognition si basa quindi su una parte di ri-
NOtIZIArIO tEcNIcO tElEcOm ItAlIA - Anno18 NumeroUNO2009
Atomi e Bit: l’Internet con le cose - roberto Saracco
levazione (un sensore come quello di una
macchina fotografica digitale o di una telecamera) e un sistema per l’estrazione di caratteristiche dall’immagine catturata con una
loro trasformazione e attribuzione a categorie predefinite.
Questo è il passaggio più critico e complicato e viene effettuato utilizzando vari meccanismi, inclusi quelli probabilistici. Per
questi, da qualche tempo, si utilizzano le reti
neurali, computer che simulano il comportamento di neuroni.
2
Chi ha interesse a fornire servizi e
informazioni sugli oggetti?
Posto che sia possibile identificare una
grande varietà di oggetti e tramite un meccanismo di collegamento, come il telefonino, arrivare ad informazioni e servizi
associati, esiste un insieme di attori interessati a creare un’offerta?
La risposta è positiva.
Possiamo classificare gli attori che
creano l’offerta in diverse classi, ciascuna
con le sue tipicità e con i suoi interessi, a
cui corrispondono modelli di business potenzialmente molto diversi. Sono proprio
questa diversità e le connessioni deboli,
che esistono tra questi soggetti, mediate
dagli oggetti e da altri attori, che evidenzierò nel seguito, che portano ad utilizzare
una visione del business legata all’ecosistema, piuttosto che alle catene del valore
in cui si collocano i singoli. Vediamo allora
brevemente queste classi di attori.
1.6
Riconoscimento testi
Un campo specifico del riconoscimento
di immagine è quello del riconoscimento di
un testo, in genere noto come OCR (Optical Character Recognition). Se il testo è
dattiloscritto e quindi i caratteri hanno una
forma ben precisa, il riconoscimento è
semplice, ma non così semplice come si
potrebbe pensare: potrebbe esserci una
macchia sul foglio che deforma i contorni
di un carattere, una stampa difettosa in
qualche punto…
I programmi che effettuano il riconoscimento hanno in genere la capacità di ovviare a questi problemi e ricostruiscono il
testo. Molto più complicato, invece, è il riconoscimento di un testo scritto a mano.
Sebbene i primi studi e brevetti sul riconoscimento di un testo scritto da parte di
una macchina risalgano addirittura agli
anni ’30, oggi il riconoscimento in OCR dei
caratteri latini (non quelli cinesi, ad esempio) è un dato acquisito. L’accuratezza supera il 99%. Così non è invece per quanto
riguarda il riconoscimento di testo scritto a
mano per cui la ricerca continua.
Il riconoscimento di testo è interessante
nel settore dell’identificazione di notizie fornite dalla carta stampata, come si vedrà più
avanti in uno degli scenari applicativi.
2.1
NOtIZIArIO tEcNIcO tElEcOm ItAlIA - Anno18 NumeroUNO2009
Le Istituzioni
Le Istituzioni sono proprietarie di informazioni che appartengono ai cittadini stessi e
quindi sono, per statuto, orientate a fornire
ai cittadini queste informazioni. Possono essere informazioni sull’uso di certi beni pubblici, piuttosto che avvertimenti di cautela in
certe situazioni. Sono inoltre interessate a
sviluppare il contesto produttivo della regione di loro pertinenza, favorendo le imprese nella creazione e offerta di beni e
servizi. In alcuni casi le Istituzioni si dotano
di loro canali di comunicazioni ed anche, più
di recente, di infrastrutture di comunicazione.
Alcune municipalità, Roma e Venezia per citarne due, hanno iniziato a rendere disponibili hot spot WiFi, a cui i cittadini possono
collegarsi.
109
Atomi e Bit: l’Internet con le cose - roberto Saracco
2.2
Gli Operatori Turistici
Questa classe è interessante, in quanto
rappresenta attori che sviluppano un business a partire da beni che non possiedono.
Pensiamo alle guide che raccontano la storia
di Roma e fanno vedere il Colosseo.
Nè l’una nè l’altro sono beni di loro proprietà, ma li sfruttano per erogare un servizio. La possibilità di erogare queste tipologie
di servizi in modo diffuso è però di loro interesse. Questo permette di cambiare anche
la modalità di erogazione. Una Disney che
non avrebbe un ritorno tale da giustificare
un’organizzazione a Roma per erogare dei
tour basati su suoi contenuti, potrebbe essere in grado, tramite l’associazione identità,
terminale, comunicazione e profilo del fruitore, di erogare servizi mirati, magari video
clip con Paperino che racconta ai ragazzini
la storia medievale di Roma, piuttosto che la
Mondadori che entra nel settore turismo,
sfruttando le raccolte di Asterix per animare
una visita al Colosseo.
gli studi del Future Centre hanno potuto verificare con alcune industrie della catena del
bianco e dell’abbigliamento.
2.4
Fornitori di Informazioni
I fornitori di informazioni vedono nelle possibilità di associazione ad ogni oggetto un
moltiplicarsi di opportunità. Mentre oggi sono
vincolati a canali classici (carta stampata,
radio, televisione, cinema), di colpo si troverebbero a poter utilizzare concettualmente
qualunque oggetto come veicolo, tramite cui
far arrivare l’informazione al cliente.
Essendo questa collegata da un lato all’oggetto e dall’altra all’interazione tra il
cliente e l’oggetto, viene ad assumere un’efficacia molto maggiore: è il right on spot,
right on time.
2.5
2.3
Produttori di beni
Da tempo i produttori di beni associano informazioni al prodotto venduto, i famosi libretti di istruzione, che non vengono
praticamente mai letti se non nel momento
in cui tornerebbero utili ma non si sa più
dove siano finiti!
L’associazione possibile tramite lettura dell’identità e accesso ad informazioni e servizi
su Internet rende possibile un’erogazione efficace delle informazioni nel momento in cui
queste sono effettivamente utili. Non solo.
Diventa possibile offrire nel tempo una varietà di servizi collegati all’oggetto, mantenendo aperto un canale di comunicazione
verso il cliente, aspetto questo di grande importanza in diversi settori commerciali, come
110
Singoli Individui
Il web ha dimostrato come esista
un’enorme disponibilità ed interesse da parte
dei singoli a creare e fornire informazioni.
Queste spesso risultano estremamente interessanti ed accurate. Sono i meccanismi
stessi del web, la magliatura continua e dinamica e la struttura a piccoli mondi che portano ad informazioni accurate. Wikipedia ne
è un ottimo esempio. Un’enciclopedia del sapere umano in continua evoluzione, prodotta
da centinaia di migliaia di individui, che
hanno come unica motivazione quella di
condividere le loro conoscenze.
La proliferazione di applicazioni su Apple
Store 2, di cui molte fornite gratuitamente per
2 Oltre 15.000 a fine 2008 e generate in meno di un anno.
NOtIZIArIO tEcNIcO tElEcOm ItAlIA - Anno18 NumeroUNO2009
Atomi e Bit: l’Internet con le cose - roberto Saracco
il solo piacere di sapere che altri possono
fruire del nostro impegno, ne è un ulteriore
esempio.
3
2.6
Comunità
Le svariate migliaia di comunità presenti
sul web sono ulteriori esempi di creazione di
informazioni per raggiungere i fruitori nel
modo più efficace possibile. Anche se motivate dalle stesse spinte di condivisione citate
a proposito dei contributi degli individui, le
comunità sono in genere maggiormente
strutturate, focalizzate e quindi possono essere viste come una classe diversa rispetto
ai singoli.
È chiaro come questo enorme complesso,
qui appena accennato, di fornitori di servizi
ed informazioni debba in qualche modo essere regolato. In alcuni casi queste regole
avvengono tramite contratti espliciti (si veda
il caso di iTunes e Apple Store), in altri secondo i principi dei Creative Commons. In
altri ancora non esistono enti regolatori che
assicurano il buon funzionamento del complesso di relazioni, garantendo i fruitori e, al
tempo stesso, creando un mercato basato
sulla fiducia che permette la valorizzazione
dell’offerta.
In questo settore è importante avere un
approccio di ecosistema. Occorre quindi
considerare come questo sistema possa essere tenuto insieme e possa anche esistere,
sulla base di elementi che sono lascamente
collegati tra di loro e in cui la creazione di valore dipende da una copresenza, da un’offerta molto grande recepibile da una
domanda molto dispersa (long tale), che diventa interessante solo se riesce a generare
volumi. Diventa quindi importante considerare quello che può essere il collante, la connettività tra i vari partecipanti all’ecosistema.
Secondo le ipotesi sviluppate al Future Centre questo può essere trovato nel Mash ups.
NOtIZIArIO tEcNIcO tElEcOm ItAlIA - Anno18 NumeroUNO2009
Mash ups e Piattaforme
Dai primi anni di questo secolo alcuni siti
web hanno iniziato a presentare ai naviganti un insieme di informazioni che sono
derivate da una molteplicità di banche dati,
di cui solo alcune di proprietà e sotto il controllo del proprietario del sito web. Le altre
banche dati vengono rese disponibili o tramite particolari canali di accesso, API (Application Programming Interface), o
semplicemente accedute come normali pagine web, da cui poi un programma estrae
le informazioni di interesse andandole ad
incollare, opportunamente riformattate,
sulla pagina che viene presentata.
Un esempio potrebbe essere un sito di
informazioni turistiche, che presenta sulla
stessa pagina un riquadro con le previsioni
del tempo e una finestra in cui appare
un’immagine del posto, ripresa in tempo
reale da una webcam. Né questa né le previsioni del tempo sono informazioni possedute dal proprietario del sito turistico, che
le ricava da pagine disponibili sul web.
Questo è possibile in quanto, dal punto di
vista della proprietà intellettuale, ciò che
viene pubblicato sul web diventa pubblico
ed è quindi riutilizzabile in altri contesti (a
patto che se ne citi la fonte). Il proprietario
del sito non ha dovuto chiedere alcun permesso a chi ha reso disponibili le previsioni
del tempo nè a chi trasmette le immagini
della webcam.
Dal punto di vista di chi, navigando, è arrivato a quella particolare pagina di informazioni turistiche la presenza dell’insieme
di informazioni costituisce un valore, in
quanto, a colpo d’occhio, cattura tutto
quanto gli serve. Il sito è un Mash Ups, una
presentazione di informazioni, provenienti
da diverse fonti, integrate dal punto di vista
della presentazione (figura 3).
In molti casi i Mash Ups vengono costruiti a partire da un’informazione che fa
111
Atomi e Bit: l’Internet con le cose - roberto Saracco
Figura 3 - Un possibile scenario in ottica mash Ups
da sfondo, fornita da un terzo. Questo può
essere, o meno, consapevole dell’utilizzo.
In generale, se l’accesso a queste informazioni viene effettuato come un normale accesso ad una pagina web, il fornitore non
è a conoscenza dell’uso, mentre se l’accesso è effettuato tramite API, che questi
mette a disposizione, diventa possibile misurare gli accessi di quel tipo ed eventualmente creare una relazione contrattuale
generalizzata. Per chi crea il Mash Ups, la
disponibilità di API è un vantaggio, in
quanto queste permettono di prendere
esattamente l’informazione voluta, mentre
nel caso di un normale accesso web, occorre realizzare dei programmi che estraggano l’informazione voluta dalla pagina,
con il problema di dover cambiare i programmi nel momento in cui cambia il modo
di presentare quella informazione. Quando
si utilizza un’informazione come sfondo su
cui andare a sovrapporre altre informazioni, si dice che quello sfondo è un seed,
cioè un seme da cui possono crescere svariate presentazioni.
Un esempio classico è costituito dalle
112
mappe geografiche, in moltissimi casi
messe a disposizione da Google. L’importanza del seed è la sua capacità di aggregare un ecosistema.
I Mash Ups 3 non sono soltanto aggregazioni di informazioni: possono essere anche
aggregazioni di servizi o un misto tra servizi
e informazioni. A sua volta la parola servizi
deve essere intesa in modo molto ampio, potendo comprendere risorse di vario tipo comprese linee di comunicazione. In prospettiva
molti oggetti potrebbero rientrare in un contesto di Mash Ups, nel senso di poter essere
un “seed” su cui si aggregano informazioni e
servizi o componenti di un Mash Ups. I terminali, come il cellulare, il televisore, i sensori presenti nella casa… sono tutti esempi
di oggetti che possono far parte di un Mash
Ups, come vedremo nel seguito.
3 Per vedere alcuni esempi e seguire l’evoluzione dei Mash
ups consultate www.programmableweb.com/mashups. Un
altro sito interessante è www.mashuptown.com con esempi
di mash ups applicati alla musica, in cui musiche e testi
sono sovrapposti ad una musica che funge da seed.
NOtIZIArIO tEcNIcO tElEcOm ItAlIA - Anno18 NumeroUNO2009
Atomi e Bit: l’Internet con le cose - roberto Saracco
Il futuro attenua i confini tra oggetti, informazioni, servizi, risorse, collocandoli in un
continuo, in cui, di volta in volta, una certa
entità ci appare come oggetto, piuttosto che
informazione, servizio, risorsa.
Saranno i nostri occhi e il nostro cervello
a percepire quell’entità in un modo piuttosto
che in un altro. Allo stesso tempo perderà
sempre più significato il concetto di pagina
web: quello che vedremo non sarà una pagina web, ma il risultato di un processo di
Mash Ups in parte svolto dalla rete, in parte
dal terminale, in parte dal contesto in cui
siamo; le informazioni e servizi che percepiremo non saranno più in un certo posto,
ma sparsi come “ectoplasmi” nella rete/ambiente/terminale con noi al centro.
Questo è un concetto nuovo, che va oltre
la rete di servizi forniti da una pluralità di attori e che ci porta in una dimensione di continuum spazio temporale.
Un passo in questa direzione è costituito
dalle “piattaforme”. Le “piattaforme” nascono dal mondo della tecnologia e denotare dei sistemi che forniscono funzionalità
di base utilizzabili da altri sistemi indipendenti da questi. Un esempio di piattaforma
è un sistema operativo, quale OSX, Linux,
WindowsVista.
Se i sistemi operativi hanno rappresentato il primo esempio di piattaforma nel contesto ICT, a questi si sono aggiunte altre
piattaforme in genere orientate ad ospitare
e gestire applicazioni in aree specifiche, ad
esempio piattaforme per la sanità, per il trasporto, per il turismo. Queste piattaforme
sono in pratica dei sistemi operativi, arricchiti da funzionalità specifiche, di interesse
per un certo contesto, che permettono, a
chi sviluppa servizi e applicazioni, di sfruttare elementi base offerti dalla piattaforma,
semplificando e velocizzando la realizzazione in quel comparto.
Più di recente si sono sviluppate architetture aperte, cioè sistemi che possono essere utilizzati da svariati attori, anche in
assenza di accordi specifici con il fornitore
NOtIZIArIO tEcNIcO tElEcOm ItAlIA - Anno18 NumeroUNO2009
della piattaforma e che crescono nel tempo
in termini di funzionalità, in quanto ogni applicazione che viene aggiunta diventa parte
della piattaforma stessa e può quindi essere utilizzata da altri per lo sviluppo di ulteriori applicazioni e servizi in un circolo
virtuoso, che aumenta sempre più il valore
della piattaforma e la sua capacità di aggregare servizi e applicazioni. La piattaforma
diventa un “control point”, elemento questo
molto importante nello sviluppo dei modelli
di business.
Queste architetture aperte richiedono
che non solo la piattaforma, ma anche le
applicazioni siano sviluppate in modo da
poter essere utilizzate come componenti di
servizio: si parla in questo caso di “service
exposure”, cioè dell’esposizione di funzionalità che potranno essere sfruttate per
erogare altri servizi. In pratica la piattaforma si trasforma per diventare un complesso ecosistema, cui partecipano svariati
attori e i cui componenti operativi sono le
diverse applicazioni via via create e rese
disponibili. Si noti che, mentre nel passato
si riteneva che le API e le componenti di
servizio costituissero i “control point” del
business, oggi sta emergendo la comprensione che il “control point” del business si
trova nella capacità di aggregare da un lato
(seed) e in quella di offrire una value proposition che fa transitare i diversi attori
dalla piattaforma.
Con piattaforma si intende anche un’infrastruttura standardizzata, su cui si possono poggiare svariati sistemi e processi
industriali e commerciali, ad esempio il
complesso meccanismo di interscambio
merci basato sui container che coinvolge
navi, treni, camion, ma anche gru, robots,
sistemi di gestione delle merci, sistemi per
l’inventario e gestione magazzini. Un altro
esempio ancora è l’iPod, su cui si sono andati ad aggregare una molteplictà di oggetti,
dalle canzoni via iTunes, alle foderine, dagli
altoparlanti, alle migliaia di applicazioni che
vengono sviluppate.
113
Atomi e Bit: l’Internet con le cose - roberto Saracco
4
zione, servizi di adattamento all’ambiente di
fruizione e anche alla costruzione di ambienti
di fruizione.
Inoltre, attori che sono presenti in quell’ecosistema, in termini di catene del valore,
possono dover riconsiderare il modo in cui
svolgono il loro business e variarlo per sfruttare la nuova situazione.
La presenza di una connessione diretta tra
prodotto e produttore attivabile dal cliente
può permettere di impostare in modo completamente diverso il CRM, addirittura può
permettere di trasfromare il CRM da costo a
profitto e in questo modo creare un insieme
di attori precedentemente inesistenti che
creano un’offerta di CRM (come ad esempio
è accaduto in USA con 1-800-Geek per il
supporto di consumer electronics e PC).
L’apertura delle piattaforme, la varietà dei
servizi e dei fornitori potrebbe portare alla
creazione di nuove aziende per l’offerta dei
servizi di gestione di telecomunicazioni.
I modelli di business
Abbiamo visto come Mash Ups e piattaforme abbiano la caratteristica di rendere
possibile l’aggregazione di servizi, risorse e
informazioni, in modo tale che dal punto di
vista del fruitore si percepisca un insieme
omogeneo e ad alto valore. Il problema è
che questo valore è la risultante dell’integrazione di valori singoli, prodotti da diversi attori: si hanno quindi valori individuali, a cui
occorre aggiungere il valore fornito dall’integrazione.
Ciascuna delle componenti è il risultato di
un processo di creazione, che ha generato
costi e che spesso presuppone dei ricavi.
Questa situazione è tipica degli ecosistemi, anche se qui la decliniamo per quello
che riguarda il contesto atomi e bit.
L’offerta proviene da una varietà di attori e
può presentarsi in forma aggregata, cioè su
un determinato oggetto possiamo trovare offerte di servizi e contenuti generati da più
parti. La “remunerazione” di questi può passare attraverso un contratto, che si viene a
stabilire a priori, o di volta in volta, tra chi
offre e chi consuma, oppure in un contesto
creative commons, dove le regole di fruizione e remunerazione sono dei gentlemen
agreement.
La relazione tra costruzione ed erogazione dell’offerta, sua fruizione e remunerazione viene facilitata dall’esistenza di una
piattaforma che colleghi i diversi attori al
mercato anche, soprattutto, in termini di tracciamento delle transazioni e nell’attribuzione
di remunerazioni conseguenti.
Nel momento in cui inizia ad aggregarsi un
ecosistema altri attori possono entrare per
sfruttare quanto viene messo a disposizione.
Questo crea una spirale positiva, che tende
ad arricchire ulteriormente il valore complessivo dell’ecosistema. Esempi di questo sono
la costruzione di servizi a partire dai metadati
derivabili nell’ecosistema (i metadati sono
dati relativi ai dati), servizi di personalizza-
114
5
Scenari
Vediamo ora alcuni scenari di applicazione dell’Internet con le cose.
5.1
Shopping al supermercato
Quel barattolo di frutti esotici sembra interessante. Non è che abbia qualche sostanza
cui posso essere allergico? Con il telefonino
identifico il barattolo (RFID in futuro o semplice riconoscimento dell’etichetta sul barattolo tramite fotografia scattata dal cellulare e
analizzata da un centro servizi). Il tasto sul
telefonino, “va bene per me?” attiva la lettura
dell’etichetta e la invia automaticamente ad
un centro servizi insieme alla mia identità
NOtIZIArIO tEcNIcO tElEcOm ItAlIA - Anno18 NumeroUNO2009
Atomi e Bit: l’Internet con le cose - roberto Saracco
(quella del telefonino) opportunamente criptata. Il centro servizi riconosce che l’etichetta
corrisponde ad un certo produttore ed invia
a questo la richiesta di informazioni. Queste
possono essere molto varie e possono essere complementate da ulteriori informazioni
provenienti da altri attori. Ad esempio il centro servizi riconosce “l’esoticità ” del contenuto e inserisce tra le informazioni anche
quelle fornite da un’agenzia viaggi, che offre
un videoclip di quella parte del mondo da cui
proviene il prodotto con un’offerta speciale
se mai volessi andare ad assaggiare il frutto
durante una bella vacanza, oppure presenta
una ricetta con cui far risaltare quel frutto
sulla tavola, piuttosto che proporre l’acquisto
di un altro ingrediente che ben si accompagnerebbe con quello.
L’insieme di informazioni, quelle provenienti dal produttore più tutte le altre che
possono approfittare della domanda che ho
fatto, sono strutturate in un archivio che diventa accessibile da un menù che mi viene
presentato sul telefonino. Tra le varie opzioni, naturalmente, anche quella che permette di memorizzare le informazioni per
una consultazione differita, magari da casa
e tramite il televisore. A queste informazioni
diventa possibile accedere ancora tramite il
telefonino, una volta che sono a casa, usato
come telecomando verso il televisore.
Ma torniamo alla domanda iniziale “va
bene per me?”. Questa domanda non può
trovare risposta sulla sola base di ciò che è
contenuto nel barattolo. Occorre incrociare
queste informazioni con il mio profilo. Questo
è disponibile a me, e anche ad un trusted
party che lo utilizza per personalizzare i servizi e le informazioni che richiedo. Potrei addirittura vedermi rispondere: “guarda che hai
già comprato questo frutto l’anno scorso…”.
L’identità del telefonino si rivela fondamentale in questo processo, in quanto questa può essere mantenuta criptata a tutti i
service e information provider, ma è visibile
all’Operatore che potrà, o direttamente se
ho scelto questo come trusted party, o indi-
NOtIZIArIO tEcNIcO tElEcOm ItAlIA - Anno18 NumeroUNO2009
rettamente trascodificando l’identità e inviandola a quello che ho comunicato come
trusted party, arrivare al mio profilo ed
estrarre le informazioni necessarie a stabilire se alcune delle sostanze contenute possano o meno essere dannose per me. In
effetti, il trusted party non è probabilmente
in grado di sapere queste cose, per cui invierà a sua volta la domanda con quella
parte di profilo, che è rilevante e le informazioni ottenute, ad un altro centro servizi, probabilmente realizzato tramite un sistema
esperto, che sarà in grado di rispondere. In
questo processo è fondamentale la schermatura delle informazioni, tale da impedire
un’associazione tra la mia identità e la richiesta informazioni.
Questo processo è lungo da descrivere,
ma in realtà la mia pressione sul tasto che
ha innescato la domanda porta ad una risposta nel giro di qualche centinaio di millisecondi, talmente rapida da non farmi
percepire alcun ritardo.
Il concetto del profilo è molto importante:
da questo dipende la possibilità di personalizzazione e di navigazione nel mare sempre
più esteso di informazioni e servizi. Dalla sua
gestione dipende la garanzia di privacy e di
possesso dei dati che mi aspetto.
Notiamo anche un altro elemento fondamentale: la possibile provenienza diversificata di informazioni e servizi; quello che
abbiamo visto viene reso possibile in termini
di fruizione dalle tecnologie del Mash Ups.
La nostra domanda, effettuata al supermercato, in corrispondenza dello scaffale su cui
si trova il barattolo, potrebbe attivare una
presentazione di contenuti su schermi strategicamente collocati sullo scaffale e addirittura sulle etichette intelligenti poste in
corrispondenza del prodotto per indicarne
caratteristiche e prezzo. Il supermercato potrebbe “vendere” l’accesso a queste etichette (controllandone l’utilizzo) a terze parti,
consentendo quindi di inviare informazioni al
cliente, tramite le infrastrutture del supermercato stesso.
115
Atomi e Bit: l’Internet con le cose - roberto Saracco
La presenza di una rete WiFi all’interno del
supermercato potrebbe superare anche i
problemi di eventuale costo nell’utilizzo di
un’infrastruttura pubblica tramite telefonino.
5.2
All’edicola
I giornali si sono evoluti ben poco nei loro
300 anni di esistenza. Il decrescente costo
di produzione e la progressiva facilità nella
raccolta di informazioni hanno moltiplicato le
testate e fatto crescere il numero di pagine;
negli ultimi 100 anni, e soprattutto negli ultimi
50, la pubblicità è diventata il motore economico della carta stampata e al tempo stesso
diventa vincolo e penalizzazione. Mentre la
tecnologia del supporto è rimasta praticamente immutata, se non per l’avvento del colore in anni recenti, la tecnologia di
produzione si è evoluta enormemente con il
passaggio al digitale di tutta la catena di raccolta, selezione, scrittura, impaginazione, distribuzione e stampa.
In questi ultimissimi anni, tuttavia, alcuni
segnali di cambiamento stanno emergendo
e potrebbero portare ad una radicale innovazione nel modo di fruire “la notizia”: podcast, twitter, blog sono tre innovazioni che
iniziano a cambiare questo mondo; lo cambiano alla radice, portando a modelli di comunicazione bottom up (i lettori di una volta
diventano potenzialmente giornalisti) e cambiano la fruizione da modelli passivi (leggere
il giornale) a interattivi, trasformando quella
che era la sottolineatura di un passo del
testo, in un commento che diventa potenzialemente visibile a tutti.
Dove una volta era la sola carta stampata,
oggi il web porta la notizia dalla carta al
video, i nuovi terminali la portano nelle mani
delle persone. L’iPhone e l’iTouch sono
esempi particolarmente importanti per la
qualità che offrono, non pari alla carta stampata, tuttavia abilitanti un’interattività che non
116
esiste sulla carta stampata. Gli eBook reader
alla Kindle offrondo una qualità paragonabile
alla carta stampata, ma una minor maneggevolezza rispetto alla carta stampata. In un
modo o nell’altro, quindi, il supporto cartaceo
continua a presentare vantaggi dal punto di
vista dell’usabilità. La tecnologia può permettere di mantenere da un lato la carta
stampata e allo stesso tempo aggiungere a
questa quelle caratteristiche di interattività,
multimedialità e pluralità di informazioni cui
il web ci ha abituati.
Immaginiamo di prendere un giornale, inquadriamone la prima pagina e scattiamone
una foto con il cellulare. Questa foto è sufficiente per permettere il riconoscimento della
testata (è il Corriere della Sera) e la data (il 2
novembre 2008). Questo riconoscimento è
importante in quanto permette di contestualizzare le successive foto che saranno relative a quei punti di interesse da cui si vuole
partire per ottenere ulteriori informazioni.
La cattura, anche solo di tre linee di un
quotidiano o di una rivista, permette di identificare in modo preciso un particolare articolo. Le etichette QR possono trovare
un’applicazione negli annunci pubblicitari a
tutta pagina.
Pensiamo ad un articolo sulla Palestina
che stiamo leggendo su un quotidiano: inquadrandolo, potremo trovarci sul telefonino
un elenco di articoli pubblicati da altri quotidiani sullo stesso tema in quel giorno, piuttosto che una storia costituita dagli articoli
che hanno trattato questo tema fino ad arrivare all’oggi; potremmo anche trovare dei
complementi alle notizie riportate in forma di
filmato, dei collegamenti a blog sul tema, dei
collegamenti a radio che in quel momento
stanno trattando l’argomento. La lista di connessioni è talmente ampia che la vera sfida
è nel riuscire a filtrare la quantità di informazioni e servizi esistenti con l’interesse della
persona, il che può essere desunto dal profilo di chi richiede l’approfondimento.
Le informazioni e i servizi collegabili ad un
articolo, ad un semplice trafiletto, possono
NOtIZIArIO tEcNIcO tElEcOm ItAlIA - Anno18 NumeroUNO2009
Atomi e Bit: l’Internet con le cose - roberto Saracco
essere veicolati dallo stesso editore che ha
stampato l’articolo o da altri attori. Questo
sposta la fruizione in un contesto di ecosistema. Una delle domande aperte è proprio
quella di mettere a valore l’ecosistema a
vantaggio potenzialmente di tutti i partecipanti.
5.3
Medicinali
Si sta assistendo ad un passaggio dalla
medicina vista come prodotto, alla medicina
vista come servizio. Il farmaco che troviamo
sullo scaffale o che ci viene dato dal farmacista su presentazione della ricetta avrà probabilmente prezzi diversi a seconda dei
servizi a questo associato. Dipenderà da noi
sottoscrivere quello che ci interessa.
Si potrà, ad esempio, richiedere di essere
monitorati una volta al giorno, avere un
check up a metà cura, o magari avere un
monitoraggio continuo. Potremo richiedere
di ricevere un messaggio che ci dice quando
prendere la medicina, o richiedere un sistema di erogazione automatico del medicinale, eventualmente attivato da remoto dal
centro di monitoraggio.
Potremo richiedere che l’informazione sul
medicinale, che stiamo prendendo, sia resa
disponibile ad altri, diventando parte del nostro profilo condiviso e che venga fornita assistenza a questi. Sarà quindi possibile
sapere se un certo alimento sia controindicato rispetto alla cura in corso. Inoltre sarà
possibile fornire indicazioni sulla cura in
corso ad ospedali o medici. La singola pillola, la confezione e la bottiglietta, conterranno un sistema di identificazione, in
prospettiva un’etichetta RFID, che consentirà in modo automatico la rilevazione dell’identità e anche la memorizzazione
dell’utilizzo (vedi figura 4). Basterà passare
il telefonino sul barattolo delle pillole, per vedere cosa siano e quando siano state tolte
NOtIZIArIO tEcNIcO tElEcOm ItAlIA - Anno18 NumeroUNO2009
dal boccettino. Chi sarà a seguire i progressi
della cura? La casa farmaceutica,, il medico
curante, ma anche diverse aziende di servizio, che potrebbero offrire di seguire non
solo l’evoluzione della cura, ma anche di tenerci aggiornati su cosa prendere a complemento della cura, come regolare le nostre
attività e magari metterci in contatto con persone che hanno i nostri stessi problemi.
La varietà di servizi fornibili è veramente
enorme e, tenendo conto del progressivo aumento della speranza di vita, vi sarà una crescente domanda di questi servizi. Nelle
nazioni sviluppate la spesa sanitaria non
solo è molto elevata, ma continua a crescere
come continua a crescere la predisposizione
a spendere in questo settore dalla parte del
singolo all’aumentare dell’età.
La progressiva consapevolezza che la salute dipende dalla coesistemza di vari fattori,
alimentari, di comportamento, di ambiente
oltre che dall’assunzione (il più limitata possibile) di medicinali sposta l’attenzione sul-
Figura 4 - Barattolo di medicinali e pastiglie con
tag rFID
117
Atomi e Bit: l’Internet con le cose - roberto Saracco
l’ecosistema in cui viviamo e sui nostri comportamenti.
La possibilità di evidenziare e tracciare
questi comportamenti e l’ambiente diventa
sempre più importante. La correlazione tra
atomi e bit diventa quindi un elemento abilitante, che secondo alcuni porterà le nuove
generazioni ad essere ultracentenarie con
punte di 120 anni nel 2050 e 140 nel 2100.
5.4
La cosa incredibile è come per anni si sia
sottovalutato questo spazio fondamentale
per le vendite. Basti pensare al fatto che è
proprio nei camerini che, nella stragrande
maggioranza dei casi, matura la decisione
d'acquisto. L’avvento delle etichette elettroniche permette di affrontare in modo completamente diverso il rapporto con il cliente
appunto nel camerino (vedi figura 5).
L’etichetta che sarà presente su ogni
capo permette di identificare con precisione
tipo, colore, taglia. Appena entrato nel ca-
Shopping abbigliamento
Lo shopping, qualunque shopping, affascina un po’ tutti, ma probabilmente quello
che coinvolge maggiormente è
la moda, il vestiario. Questo diventa parte di noi e di come ci
presentiamo agli altri, per cui in
genere vi si dedica particolare
attenzione. I negozianti lo
sanno e abbiamo visto come le
grandi firme cerchino di creare
un ambiente e un’esperienza
emozionale ai loro clienti. Se la
parte espositiva, dalle vetrine
all’interno, è sempre stata
molto curata, il camerino di
prova è stato un po’ trascurato
in molti negozi; solo in pochi
questo ha ricevuto una doverosa attenzione. Alcuni trucchi
che operano a livello percettivo
sono stati applicati in alcuni camerini, ad esempio lo specchio
in alcuni è leggermente convesso, quel tanto che basta per
farci apparire più slanciati
senza che ci si accorga del
trucco. Le luci sono laterali in
modo da nascondere rughe e
imperfezioni della pelle, viene a
volte inserito un aroma di vaniglia che pare stimoli la voglia di
acquistare…
118
Figura 5 - Il magic mirror della Paxar,
usato da alcuni negozi in Inghilterra
NOtIZIArIO tEcNIcO tElEcOm ItAlIA - Anno18 NumeroUNO2009
Atomi e Bit: l’Internet con le cose - roberto Saracco
merino possiamo sentire una voce che ci
accoglie e si complimenta per la scelta, informandoci che questo fa parte della collezione primavera presentata a Palazzo Pitti.
E subito parte la ripresa della sfilata di moda
sullo schermo piatto incassato in una parete. Lì vediamo sfilare il modello/a con indosso proprio il capo che abbiamo in mano,
stessa tinta. Certo fa un bell’effetto! Lo indossiamo, ci guardiamo allo specchio, ovvero in uno schermo in grado di sovrapporre
informazioni, e vediamo che possiamo indicare che il capo ci sembra un po’ stretto…
nessun problema! Un commesso in maniera
automatica è avvertito e ci porta subito una
taglia più grande. Se questa non fosse disponibile, ci viene indicato che questa è presente in un negozio della stessa catena
situato a cinque minuti a piedi da qui. Un
click sullo schermo e arriva la conferma che
il capo è in nostra attesa in quel negozio per
i prossimi trenta minuti.
Indecisi sul colore? Ecco apparire tutte le
nuances disponibili e possiamo vederle sovrapposte alla nostra figura. Si adatterà questa camicetta alla gonna che avevamo
acquistato qualche tempo fa? Basta selezionarla dall’agenda acquisti effettuati, presente sul telefonino in termini di identità ed
ecco sovraimporsi su di noi quella gonna,
esattamente di quel colore e quella taglia.
Sembra ok. O forse no? Meglio sentire il
parere dell’amico e con un click ecco coinvolto in video conferenza il nostro amico,
oppure con Twitter mandiamo l’immagine riflessa dallo specchio a tutti i nostri amici.
Qualcuno sarà disponibile a chattare immediatamente, qualcun altro vedrà che è proprio vicino al negozio in cui siamo e farà una
capatina a vederci di persona…
Questo è quello che si chiama il social retail, il coinvolgimento di un gruppo nell’esperienza dello shopping.
Come vediamo le opportunità aperte dalla
tecnologia e dalla possibilità di identificare
un oggetto sono veramente limitate solo
dalla fantasia.
6
Conclusioni
L’Internet con le cose aprirà interessanti
spazi di business ed andrà a cambiare numerosi processi di business. Questi due
aspetti sono di forte interesse per un Operatore sia perché aprono nuove fonti di introiti
che non cannibalizzano quelli attuali, sia perché gli consentono di essere il motore dell’innovazione per tutto il sistema paese.
Questo secondo aspetto è forse ancora più
importante, in quanto da questo dipende
l’evoluzione complessiva. Infatti, l’innovazione che Telecom Italia persegue investendo in ricerca può dare ritorni veramente
significativi, solo se si accompagna ad
un’evoluzione del sistema complessivo.
Operare quindi nella ricerca in termini di
laboratorio aperto, in partnership con molti
attori che lavorano su svariati segmenti di
mercato, diventa essenziale.
A
NOtIZIArIO tEcNIcO tElEcOm ItAlIA - Anno18 NumeroUNO2009
CRONIMI
API
CCD
CRM
Application Programming Interface
Charged Coupled Device
Customer Relationship
Management
ICT
Information Communications
Technologies
M2M
Machine to Machine
NFC
Near Field Communication
OCR
Optical Character Recognition
QR
Quick Response
RFID
Radio Frequency IDentification
WiFi
Wireless Fidelity
WORM Write Once Read Many
[email protected]
119
Atomi e Bit: l’Internet con le cose - roberto Saracco
A
UTORE
roberto Saracco
diplomato in informatica e laureato in matematica con un perfezionamento in fisica
delle particelle elementari. Negli oltre trent’anni in Telecom Italia ha partecipato a molti
progetti di ricerca in commutazione, reti dati, gestione della rete, occupando varie posizioni di responsabilità. Negli ultimi dieci anni i suoi interessi si sono spostati verso gli
aspetti economici dell’innovazione. Attualmente è responsabile per Future Centre e
Comunicazione Tecnica di Telecom Italia, dove guida gruppi di ricerca sulle implicazioni
economiche dei nuovi ecosistemi e scenari di business.
È senior member dell’IEEE, tra i direttori della Communication Society, nonché autore
di numerose pubblicazioni in Italia e all’estero ■
120
NOtIZIArIO tEcNIcO tElEcOm ItAlIA - Anno18 NumeroUNO2009
Cooperazione tra Internet
Service Provider
ed applicazioni peer-to-peer
arcHitettUre
L
Gianni Canal, Enrico Marocco, Vinicio Vercellone
e applicazioni peer-to-peer utilizzate per file-sharing sono oggi responsabili di
una notevole parte del traffico Internet e di una quota significativa dei costi per
aumentare la capacità di trasporto nelle reti dei service provider. Tale traffico
può anche essere causa di congestioni di rete e, in generale, influire
sulle prestazioni di applicazioni web, giochi online, streaming e VoIP.
Questo articolo, oltre a fornire gli elementi necessari a comprendere la natura del
traffico peer-to-peer, illustra i possibili approcci che i Service Provider hanno a
disposizione per controllare questo tipo di traffico, miranti in vari modi a rendere più
locale lo scambio di contenuti e tentare di sviluppare nuove occasioni di business.
Viene inoltre presentata un'iniziativa per standardizzare una soluzione tecnica per la
collaborazione tra applicazioni e reti recentemente avviata in IETF (Internet
Engineering Task Force) e promossa da Telecom Italia.
1
Introduzione
Il traffico Internet sta subendo da anni una
trasformazione caratterizzata dall'incremento dell'incidenza del traffico generato da
applicazioni peer-to-peer (P2P), utilizzate
dapprima per file-sharing e di recente anche
per comunicazioni real-time e streaming di
4
contenuti live. Tale traffico, che secondo le
stime costituisce tra il 40% e l'85% del totale
[1]1, può essere causa fenomeni di congestioni di rete.
1 Stime più recenti evidenziano un impatto molto maggiore
del traffico video. La differenza sostanziale tra i due tipi di
traffico è dovuta al fatto che, mentre i contenuti forniti da
Notiziario tecNico telecom italia - anno18 NumeroUNo2009
>
cooperazione tra internet Service Provider ed applicazioni peer-to-peer - Gianni canal, enrico marocco, Vinicio Vercellone
sorse su link oceanici, mentre gli stessi contenuti sono disponibili a pochi chilometri di
distanza.
Studi recenti [2] mostrano che, introducendo negli algoritmi P2P meccanismi per
allineare l'overlay costituito dalle connessioni
tra i peer alla topologia delle reti sottostanti,
è possibile ottenere un notevole miglioramento delle performance delle applicazioni
stesse, ad esempio in termini di velocità di
down-load, riducendo allo stesso tempo il
consumo di risorse di rete. Il grafico in
figura 2 mostra come vari la distribuzione
delle connessioni tra i nodi di un overlay
Gnutella nel caso in cui la selezione dei peer
tenga in conto della posizione geografica.
Negli ultimi anni sono stati proposti diversi
meccanismi per ottimizzare i sistemi P2P in
base alla topologia delle reti sottostanti. Un
primo approccio consiste in algoritmi distribuiti basati su misurazioni effettuate dai peer
stessi, mirate a stimare proprietà dei link fisici quali delay, jitter e packet loss rate.
I risultati delle misurazioni vengono poi
condivisi tra i vari peer del sistema, al fine di
Figura 1 - incidenza del traffico P2P
comporre un'approssimazione condivisa
(Fonte: cachelogic)
della mappa della rete che ogni client può
utilizzare per effettuare la scelta dei
peer a cui connettersi. Oltre ad
CacheLogic Research I Internet Protocol Breakdown 1993-2006
email
FTP
avere attratto grande inte70
resse da parte della comuWeb
P2P
60
nità scientifica, alcuni di
50
questi algoritmi [3, 4] sono
stati implementati nelle appli40
cazioni più diffuse e sono tut30
t'ora utilizzati con discreti
risultati.
20
Il limite più evidente di tale
approccio
consiste nel fatto
10
94 95
96 97
che le misurazioni che si
98 99
0
00 01
possono
effettuare dagli en02
03
04
05
dpoint della rete sono gene06
ralmente o troppo costose –
ad esempio stime di throughput richiedono scambi di grandi quantità
> servizi centralizzati come YouTube o IPTV sono generaldi dati – o poco significativi – ad esempio
mente replicati tramite soluzioni di cache nella rete locale,
il traffico P2P rimane dominante nei link inter-dominio.
semplici misurazioni di Round Trip Time
La caratteristica distintiva delle applicazioni P2P – BitTorrent, eMule, Gnutella,
Skype, GoogleTalk, Sopcast e PPLive –
consiste nel fatto che gli utenti accedono a
risorse come file o media relay disponibili in
centinaia o talvolta migliaia di istanze distribuite su tutta la rete (Figura 1). Se da una
parte l'altissimo livello di delocalizzazione è
alla base del successo di tali applicazioni,
allo stesso tempo ne costituisce il punto debole in termini di prestazioni. Infatti, dal momento che lo strato applicativo non ha
generalmente accesso ad alcun tipo di informazione a riguardo della topologia della
rete, quando un peer deve selezionare una
specifica istanza della risorsa a cui accedere, ad esempio uno o più utenti da cui
scaricare un determinato file, spesso non
può fare altro che ricorrere ad una scelta casuale. A causa di tale dis-ottimizzazione,
sono molto frequenti casi paradossali in cui,
ad esempio, i download di file occupano ri-
Percentage of Internet Traffic
93
Notiziario tecNico telecom italia - anno18 NumeroUNo2009
5
cooperazione tra internet Service Provider ed applicazioni peer-to-peer - Gianni canal, enrico marocco, Vinicio Vercellone
Figura 2 - rappresentazione geografica di un overlay
Gnutella nel caso in cui la selezione dei peer avvenga in
maniera casuale (a sinistra) e con il supporto di informazioni di topologia (a destra)
(Fonte: technishe Universitat Berlin)
(RTT) non danno indicazioni sull’effettiva disponibilità di banda, cruciale nel caso del
file-sharing.
Un approccio alternativo, investigato negli
ultimi anni sia in ambito accademico che industriale, prevede un ruolo attivo degli Internet Service Provider (ISP) nel guidare le
applicazioni P2P ad effettuare la selezione
dei peer a cui connettersi. Tale approccio,
che parte dal presupposto che l'ottimizzazione del traffico P2P è di interesse sia per
gli utenti che per i provider, prevede l'esposizione da parte degli ISP di informazioni di
topologia di rete in maniera controllata, in
modo da permettere alle applicazioni di effettuare scelte ottimali senza però svelare
dettagli di implementazione generalmente ritenuti confidenziali. Le soluzioni più promettenti su questa linea sono state proposte nel
2008 da Deutsche Telekom [2] e, quasi contemporaneamente, da una partnership industriale fondata da Verizon, Yale University e
6
Pando Networks (un distributore di contenuti
che fa uso di tecnologie P2P), diventata discretamente famosa con il nome di Provider
Portal for P2P Applications (P4P) [5]. I risultati ottenuti da simulazioni e da sperimentazioni con client BitTorrent-like mostrano
miglioramenti nelle performance delle applicazioni in termini di velocità di download, che
variano tra il 15% e l'85%, ed una riduzione
del traffico inter-dominio compresa tra il 34%
e l'80%.
Nel corso del 2008 Telecom Italia si è impegnata nel coordinamento del processo di
creazione di un working group nell'Internet
Engineering Task Force (IETF) per la standardizzazione di una tale soluzione ed ora
ne è alla guida insieme ad Alcatel-Lucent e
Neustar.
2
Caratteristiche del traffico P2P
Una prima serie approfondita di studi sulle
caratteristiche del traffico P2P e sull’effi-
Notiziario tecNico telecom italia - anno18 NumeroUNo2009
cooperazione tra internet Service Provider ed applicazioni peer-to-peer - Gianni canal, enrico marocco, Vinicio Vercellone
cienza delle strategie di caching è stata condotta da University of Washington [6]. Le
analisi sono state effettuate nel 2002 sulla
base di tracce reali raccolte sulla rete del
campus universitario – un bacino di oltre
60000 utenti – ed hanno preso in esame il
protocollo Kazaa in un periodo di 200 giorni,
per un volume totale di 20TB di traffico corrispondenti a circa 1,6M di richieste di trasferimento di file.
Alcune interessanti osservazioni riguardano le caratteristiche del traffico P2P analizzato. Il tipico mix di traffico di
un’applicazione P2P è costituito da vari tipi
di oggetti, quali audio, video, eseguibili ed
immagini. La natura variegata dei contenuti
trasferiti si riflette sull'andamento del workload risultante (Figura 3), che evidenzia la
presenza di tre diversi segmenti corrispondenti ad altrettanti tipi di oggetti: di piccola
taglia (inferiore a 10 MB), di medie dimensioni (da 10 a 100 MB) e di grandi dimensioni, tipicamente vicine ad 1 GB. Come si
nota dal grafico, mentre la maggioranza
delle richieste (91%) si riferisce ad oggetti inferiori a 10 MB, principalmente audio, la
maggior parte dei byte trasferiti (65%) è coFigura 3 - Distribuzione degli oggetti
P2P in funzione della dimensione
(Fonte: University of Washington)
Notiziario tecNico telecom italia - anno18 NumeroUNo2009
stituita da oggetti grandi, generalmente
video. Da ciò si deduce tra l'altro che, se
l'obiettivo è contenere il consumo di banda,
bisognerà fare leva su questi ultimi; viceversa, se lo scopo è di migliorare la user experience complessiva, si dovrà tenere conto
della fonte della maggioranza delle richieste.
Una semplice ma importante differenza
tra gli oggetti multimedia Kazaa ed il tipico
workload web è dovuta al fatto che i primi
sono “immutabili”, mentre le pagine web
non lo sono. La natura dei contenuti scambiati ha delle implicazioni che si riflettono
sulle caratteristiche del traffico P2P e lo rendono differente da quello web. Infatti, a differenza di quanto avviene con le pagine
web, gli utenti P2P scaricano un certo contenuto solitamente una volta sola; dalle
tracce di traffico Kazaa raccolte nello studio
si deduce che questo si verifica per il 94%
del tempo.
Un'altra indicazione emersa riguarda la
durata spesso limitata della popolarità degli
oggetti P2P. A differenza delle pagine web
più popolari, che tendono a rimanere relativamente stabili nel tempo, gli oggetti
audio/video più condivisi sono spesso rimpiazzati da nuovi contenuti nell'arco di poche
settimane; ciò si verifica in misura maggiore
7
cooperazione tra internet Service Provider ed applicazioni peer-to-peer - Gianni canal, enrico marocco, Vinicio Vercellone
per i contenuti audio, che
tendono a perdere la loro
popolarità più rapidamente di quelli video. In
questa dinamica di sostituzione i contenuti più popolari tendono ad essere
costituiti da oggetti apparsi di recente, specie
nel caso dei contenuti
audio. Tuttavia, analizzando la distribuzione
delle richieste, si può constatare come la maggior
parte degli accessi si riferisca invece, complessivamente, ad oggetti più vecchi: ben 72%
delle richieste per quelli di grandi dimensioni
e 52% per quelli piccoli.
Le caratteristiche intrinseche del traffico
P2P si traducono in una diversa distribuzione statistica della popolarità dei contenuti
rispetto a quella del web. Mentre quest'ultima può essere notoriamente modellata da
una distribuzione di tipo Zipf 2, come ampiamente riportato in letteratura, lo studio ha
Figura 4 - Distribuzione di popolarita` degli oggetti
web e P2P Kazaa
(Fonte: University of Washington)
permesso di verificare che la distribuzione di
popolarità dei contenuti P2P se ne discosta
in qualche misura. L'andamento è evidenziato nel grafico di figura 4, che riporta il numero di richieste per un certo oggetto in
2 La distribuzione Zipf esprime la relazione tra la frequenza (denominata anche “size”) di un evento ed il suo “rank”, ossia la sua
posizione nella classifica di popolarità relativa all’insieme degli eventi considerati.
Applicazioni per file-sharing: eMule
Il client eMule è la più popolare applicazione di file sharing basata sul protocollo eDonkey;
di seguito ne è descritto brevemente il funzionamento.
Identificativi di client e file
All’avvio di eMule, il client sceglie un server tra quelli presenti in una apposita lista sul
quale si registra stabilendo una connessione ed ottenendo un identificativo (Client ID).
Dopo l’assegnazione dell'ID, il client invia al server della rete eDonkey la sua lista di file
condivisi. Ad ogni file è assegnato un File ID, che lo identifica in base al suo contenuto.
In particolare, il file viene diviso in parti di 9.28 MB, alle quali viene applicato l’algoritmo
di hashing MD4, ottenendo degli Hashset che combinati formeranno il File ID, utilizzato
anche per verificare l’integrità del file scaricato.
Ricerca di un file
La ricerca di un file può avvenire secondo due diverse modalità. In modalità Server, il
client invia un messaggio Search Files contenente le keyword di ricerca al server principale
con il quale ha stabilito la connessione, e ne riceve in risposta una lista con i risultati della
ricerca. Tale lista contiene, per ciascun file: il File ID, l'indirizzo IP di uno dei client che
8
Notiziario tecNico telecom italia - anno18 NumeroUNo2009
>
cooperazione tra internet Service Provider ed applicazioni peer-to-peer - Gianni canal, enrico marocco, Vinicio Vercellone
funzione del suo rank. Si può notare che la
prima parte della curva si discosta dall’andamento della distribuzione Zipf rappresentata
dalla retta di interpolazione (tale scostamento è enfatizzato dall'impiego di una scala
logaritmica su entrambi gli assi), anche se la
correlazione rimane sempre molto elevata.
In pratica, come si vede dal grafico, la curva
è appiattita nella parte corrispondente ai
contenuti più popolari, indicando che questi
ultimi sono richiesti complessivamente un
numero di volte inferiore a quanto previsto
dalla distribuzione Zipf. I precedenti risultati
sono confermati anche da altri studi indipen-
>
denti che mostrano inoltre come l'andamento sia caratteristico della fruizione di
contenuti video, indipendentemente dal fatto
che il canale utilizzato sia il download, invece
che il noleggio o il botteghino.
2.1
Efficienza delle tecniche di caching
L’analisi condotta da University of Washington ha prodotto anche una serie di interessanti valutazioni [6] riguardo all'efficienza
delle politiche di caching. È opportuno pre-
possiede il file ed ulteriori dati tra cui il nome del file, la dimensione ed il numero di fonti. In modalità Global, attivata quando il numero delle fonti non è sufficiente, il meccanismo precedente
viene arricchito da una ricerca parallela, contattando altri server della sua lista, alla ricerca di ulteriori
risultati.
Ricerca delle fonti
Individuato il file che intende scaricare, l’utente lo inserisce nella lista dei trasferimenti ed invia al
server su cui è registrato un messaggio Get Sources, che ne specifica il File ID, ricevendo come risposta un messaggio Found Sources con la lista degli indirizzi dei client che condividono il file.
Se il numero di fonti individuate è inferiore ad un determinato valore di soglia, il client invia anche
dei messaggi Get Sources ad altri server presenti nella lista, per ottenere ulteriori indirizzi di peer.
Dialogo tra peer e trasferimento dei file
Ottenuti gli indirizzi, il client (A) instaura una connessione con ognuno dei peer (B) nella lista, avviando una procedura di handshake che ne consente la mutua identificazione.
Al termine di questa fase, A può richiedere a B il file desiderato, tramite i messaggio di File Request
e File Status Request, a cui B risponde con un File Request Answer, contenente il nome del file e
un File Status, che ne specifica il File ID e quali parti del file possiede. Al successivo invio a B
della richiesta di download, tramite il messaggio Slot Request, possono verificarsi due situazioni:
• La coda di servizio di B è vuota: A riceve un messaggio di Slot Given ed avvia il download effettivo indicando le parti del file che desidera scaricare tramite il messaggio Request Parts.
• La coda di servizio di B non è vuota: in tal caso B comunica ad A la sua posizione all’interno
della coda, tramite il messaggio Queue Ranking; in funzione del ranking, la connessione può essere chiusa e riaperta da B quando A raggiungerà la testa della coda, per iniziare il download come
descritto al punto precedente. In tal caso si attiva un meccanismo di keep-alive per aggiornare A
sulla sua posizione in coda.
Infine, al temine della ricezione delle parti del file specificate nei messaggi Request Parts, A invia
a B un messaggio di Slot Release e chiude la connessione.
Il messaggio Offer Files
Per comunicare al server su cui è registrato la propria lista di file condivisi il client utilizza il messaggio Offer Files, nel quale specifica anche se sono disponibili interamente e parzialmente, che
viene emesso al momento della connessione e rinnovato periodicamente. Il messaggio serve inoltre
ad aggiornare il server quando la lista dei file condivisi cambia, in particolare al termine di un
download.
Notiziario tecNico telecom italia - anno18 NumeroUNo2009
9
cooperazione tra internet Service Provider ed applicazioni peer-to-peer - Gianni canal, enrico marocco, Vinicio Vercellone
mettere che si tratta di risultati teorici, ottenuti mediante simulazione di un modello
ideale di cache, che rappresentano senza
dubbio un limite superiore alle prestazioni ottenibili nella pratica.
Gli studi mostrano in sostanza che le performance del caching di traffico P2P, valutate
in termini di hit rate 3, sono paragonabili e generalmente superiori a quelle ideali del caching di traffico web [7].
La figura 5 riporta, a titolo di esempio, l’andamento delle prestazioni della cache in funzione della numerosità dei client. Il grafico
mostra l’hit rate riferito al traffico uscente. Si
può osservare che una popolazione di 1000
client percepirebbe un hit rate del 40% circa,
che salirebbe al crescere del numero di peer
fino a raggiungere un valore introno all'85%,
nel caso di 500.000 client. Ciò dimostra che
l'efficacia del caching di traffico P2P, già vantaggioso per un numero contenuto di peer,
aumenta significativamente al crescere della
popolazione.
Lo studio di University of Washington ha
indagato anche i benefici derivanti dall’eventuale
adozione
di
politiche di reinstradamento delle richieste
verso peer locali, come
strategia equivalente al
caching. L’obiettivo della
politica, denominata “locality-aware routing”, è
quindi quello di sfruttare
le repliche dei contenuti
già presenti in ambito locale; essa si fonda sull'osservazione che, in
base alle tracce analiz-
3 L'hit rate è definito come la percentuale di successi nell'accesso ai contenuti all'interno
della cache.
4 Il modello presuppone una conoscenza completa della disponibilità dei peer e degli oggetti serviti, assume inoltre
che i peer siano dotati di capacità di storage illimitata e che
non appena hanno scaricato un oggetto lo rendano dispo-
10
zate, ben l’86% dei byte scaricati da peer
esterni era già presente in un altro peer
all’interno del campus al momento della richiesta. In pratica quindi, favorendo, quando
possibile, la scelta di peer locali, si realizza
una sorta di caching distribuito dei contenuti.
I principali risultati dell'analisi di questa
strategia, assumendo un modello ideale 4,
evidenziano come le prestazioni (hit rate) varino tra il 68% ed il 37%, in funzione della dimensione degli oggetti. Gli studi mostrano
anche che uno dei principali fattori che influenzano l'efficienza di queste politiche è
rappresentato dal livello di disponibilità dei
peer che sono in grado di servire il contenuto
richiesto. Infatti, la disponibilità dell’oggetto
richiesto non è più garantita intrinsecamente
dalla presenza delle cache. Per questo, la
presenza di un sottoinsieme di peer con elevata disponibilità rappresenta una condizione necessaria e sufficiente per
raggiungere una buona efficienza del sistema.
Figura 5 - Prestazioni ideali del
caching di traffico P2P Kazaa
(Fonte: University of Washington)
Notiziario tecNico telecom italia - anno18 NumeroUNo2009
cooperazione tra internet Service Provider ed applicazioni peer-to-peer - Gianni canal, enrico marocco, Vinicio Vercellone
Applicazioni per file-sharing: BitTorrent
BitTorrent è un protocollo di file sharing peer-to-peer che conta svariate implementazioni
tra cui BitComet, μTorrent ed Azureus. Su scala mondiale il protocollo è molto diffuso,
mentre in ambito Europeo, ed in particolare in Italia, il traffico BitTorrent è ancora inferiore a quello eDonkey.
Funzionamento del protocollo
Per effettuare un download, gli utenti devono procurarsi, collegandosi solitamente ad un
sito web, un file con estensione .torrent che contiene informazioni sul contenuto richiesto
e l’indirizzo del tracker che funge da coordinatore della distribuzione. Collegandosi al
tracker indicato nel file .torrent, il client ottiene la lista dei peer che sono attualmente coinvolti nella condivisione del file. In particolare, quelli che dispongono di una intera copia
del file sono denominati seeder, mentre quelli che devono ancora terminarne il download
leecher. Il client si connette quindi ad un sottoinsieme di questi peer – scegliendo indistintamente seeder e leecher – ed ottiene i diversi pezzi in cui è suddiviso il file. Il gruppo
di peer connessi fra loro per realizzare il trasferimento di un file è denominato swarm.
Scelta del frammento da scaricare
Dopo aver ottenuto dal tracker la lista dei peer, il client inizia a contattarli per procedere
alla richiesta del file.
Per facilitare il download, questo viene suddiviso in pezzi, che vengono scambiati tra i
peer; la decisione di quale frammento scaricare da ogni peer segue regole precise:
• Rarest first: prevede di scegliere per primi i pezzi condivisi dal minor numero di peer e
mira ad evitare il rischio di una loro indisponibilità;
• Random First Piece: eccezione alla regola precedente, viene applicata all’inizio del download, quando il peer non ha ancora pezzi del file per l'upload e quelli rari potrebbero
essere disponibili solo su un peer;
• Endgame Mode: modalità utilizzata nella fase finale del download. Per evitare di scaricare pezzi da peer molto lenti, si inviano richieste per i pezzi mancanti a tutti i peer,
seguite da messaggi di cancel non appena il blocco viene scaricato.
“Tit-for-tat”
L’allocazione delle risorse non viene realizzata in modo centralizzato in BitTorrent, ma
ogni peer si preoccupa di massimizzare la propria velocità di download. L’efficienza complessiva del trasferimento dipende infatti fortemente dalle politiche utilizzate dai client
per determinare a quali peer inviare o richiedere i vari pezzi del file. Per raggiungere questo obiettivo BitTorrent adotta una strategia conosciuta come “tit-for-tat” al fine di approssimare un sistema Pareto-efficiente. Secondo questa politica, che mira a stabilire un
principio di reciprocità, nell'effettuare l'upload dei loro pezzi del file, i client privilegiano
quei peer che forniscono loro altri dati in cambio. Per gestire l'upload, in modo da realizzare la strategia tit-for-tat, viene utilizzato il cosiddetto “choke algorithm”. Il choking
consiste infatti in un temporaneo rifiuto ad inviare dati verso un peer (ma non a riceverli);
il client BitTorrent decide quali peer sbloccare basandosi su criteri piuttosto elaborati, privilegiando tipicamente i peer che gli offrono la maggiore velocità di download. La lista
dei peer da sbloccare viene ricalcolata ogni 10 secondi, per permettere al trasferimento di
raggiungere una situazione di regime. Per ovviare a limitazioni che insorgerebbero in particolari condizioni, viene adottato un meccanismo aggiuntivo denominato “optimistic unchoking”. Il client riserva cioè una porzione della sua banda di upload a peer scelti in
modo casuale. L'optimistic unchoking ottiene il duplice scopo di saggiare la capacità di
download di nuovi peer e di gestire la fase iniziale di bootstrap all'aggiunta di un nuovo
peer nello swarm.
Notiziario tecNico telecom italia - anno18 NumeroUNo2009
11
cooperazione tra internet Service Provider ed applicazioni peer-to-peer - Gianni canal, enrico marocco, Vinicio Vercellone
Vale la pena notare che l’utilizzo di criteri
di instradamento “locality-aware” ha il vantaggio di permettere di superare le implicazioni di carattere legale collegate al caching
di contenuti protetti da copyright. L'interesse
per queste tecniche di ottimizzazione ha
quindi portato alla nascita di svariate proposte che si ispirano alla strategia di “locality
awareness”, discusse nel seguito del documento.
3
Stato dell'arte delle tecniche di
ottimizzazione
Tra le tecniche per l'ottimizzazione delle
prestazioni dei sistemi P2P, le prime proposte
in letteratura avevano lo scopo di permettere
alle applicazioni di ottenere informazioni riguardanti le infrastrutture di rete per migliorare la selezione dei peer a cui connettersi –
ad esempio per scaricare un determinato
contenuto (BitTorrent, eMule), o per avere
supporto per NAT traversal (Skype).
Una delle prime proposte in questo senso
è il sistema Global Network Positioning
(GNP) [8], che ha aperto la strada al filone
di ricerca dei cosiddetti Internet Coordinate
System (ICS). In tali sistemi, nati con lo
scopo di determinare in maniera distribuita
le coordinate geografiche degli indirizzi Internet, i nodi che vi partecipano effettuano misurazioni di RTT tra di loro e calcolano la loro
posizione tramite tecniche di triangolazione.
GNP, pur essendo un sistema distribuito,
richiede un'infrastruttura composta da nodi
ben noti, detti “landmark”, di cui sono conosciute le coordinate geografiche. Per ovviare
a questa limitazione, ricercatori del Microsoft
Research Center hanno proposto una variante di GNP, Practical Internet Coordinates
(PIC) [9]. L'estensione introdotta in PIC consiste essenzialmente in un meccanismo che
permette di utilizzare come landmark dei
12
nodi qualsiasi di cui sia già stata calcolata la
posizione, limitando gli eventuali errori di approssimazione.
Sia GNP che PIC danno ottime approssimazioni a patto che non si verifichino violazioni della diseguaglianza triangolare,
ovvero che presi tre punti, A, B, C, la distanza tra A e B non risulti maggiore della
somma delle distanze tra A e C e tra C e B.
Purtroppo, mentre tali violazioni non si verificano nello spazio euclideo, esse sono
molto comuni nelle complesse architetture di
rete che compongono Internet (cioè, presi tre
nodi a caso, A, B, C, non è raro che il RTT
tra i nodi A e B sia significativamente maggiore della somma dei RTT tra A e C e tra C
e B). Per ottenere buone approssimazioni
anche in presenza di diseguaglianze triangolari, il sistema Vivaldi [3], oltre a latitudine
e longitudine, introduce una terza dimensione con lo scopo di limitare errori ed anomalie, e definisce un processo continuo di
approssimazione. Vivaldi si è rivelato un metodo particolarmente accurato per stimare le
latenze tra nodi, tanto da venire implementato in Azureus, uno dei client BitTorrent più
diffusi.
Non tutte le soluzioni proposte in letteratura mirano però a realizzare un ICS. In Meridian [10], ad esempio, ogni nodo tiene
traccia di un sottoinsieme di nodi “vicini”, organizzandoli in anelli concentrici in base alla
loro distanza. Utilizzando interrogazioni ricorsive, Meridian riesce ad ottenere elevati
livelli di accuratezza e, anche se il sistema
risulta meno generico di un ICS, fornisce informazioni di estremo valore alle applicazioni
P2P che devono ottimizzare la scelta dei
peer con cui scambiare dati.
Un approccio sicuramente meno rigoroso
dal punto di vista scientifico, ma altrettanto
efficace, è quello adottato da Ono [4], un
progetto della Northwestern University.
L'idea è molto semplice: invece di realizzare
un sistema complesso di misurazioni e
scambio di dati, il software Ono invia delle richieste fittizie ai server di Akamai, una delle
Notiziario tecNico telecom italia - anno18 NumeroUNo2009
cooperazione tra internet Service Provider ed applicazioni peer-to-peer - Gianni canal, enrico marocco, Vinicio Vercellone
maggiori Content Delivery Network (CDN),
ed utilizza i messaggi di ridirezione che ottiene come risposta per avere una stima approssimata della propria posizione. La
particolarità di Ono è dovuta in parte al fatto
che l'overhead di traffico generato per ottenere le informazioni è praticamente nullo, ed
in parte alla popolarità che ha raggiunto
come plugin del client Azureus.
4.1
4
Ottimizzazione tramite
collaborazione tra ISP e P2P
Invece di stimare la topologia della rete a
livello applicativo tramite misurazioni end-toend ed algoritmi distribuiti, tale informazione
può essere esposta dalle entità che gestiscono la rete stessa – generalmente ISP ed
operatori di rete. Infatti, essi hanno completa
conoscenza della topologia delle reti che
amministrano e, al fine di ridurre le congestioni sui link critici, sono interessati ad aiutare le applicazioni ad ottimizzare il traffico
che esse generano.
È essenziale notare che, affinché sia possibile un’effettiva collaborazione tra ISP ed
applicazioni P2P, è necessario
che lo scambio di informazioni
preservi un elevato livello di
privacy su entrambi i fronti. Da
un lato, i service provider devono essere in grado di dare
indicazioni alle applicazioni
senza svelare dettagli confidenziali a riguardo dell'implementazione delle proprie reti e
senza comprometterne la sicurezza; dall'altro lato, gli
utenti devono potere accedere
alle informazioni esposte dagli
ISP senza essere costretti ad
indicare quale uso abbiano intenzione di farne.
Notiziario tecNico telecom italia - anno18 NumeroUNo2009
P4P: Provider Portal for P2P
Applications
L'architettura proposta da Yale University
[5] è stata adottata dal working group P4P
della Distributed Computing Industry Association (DCIA), un gruppo che vede la partecipazione di numerosi ISP, vendor di
hardware e software, compagnie che utilizzano tecnologie P2P ed università, riuniti con
lo scopo di definire meccanismi per accelerare la distribuzione di contenuti ed ottimizzare l'utilizzo delle risorse di rete.
Nell'architettura P4P (Figura 6), giocano il
ruolo principale server chiamati “iTracker”,
controllati dai service provider ed acceduti
dalle applicazioni – o, più in generale, da elementi dei sistemi P2P – per ottimizzare la
scelta dei peer a cui connettersi. Un iTracker
può offrire tre interfacce:
• info: permette agli elementi del sistema
P2P di ottenere informazione “opaca” associata ad un determinato indirizzo IP.
Tale informazione è mantenuta opaca per
nascondere l'effettiva topologia di rete,
Figura 6 - architettura della soluzione P4P
(Fonte: Yale University)
13
cooperazione tra internet Service Provider ed applicazioni peer-to-peer - Gianni canal, enrico marocco, Vinicio Vercellone
ma può comunque essere utilizzata per
calcolare la distanza tra diversi indirizzi
IP;
• policy: permette agli elementi del sistema
P2P di ottenere informazioni sulle preferenze dell'Operatore per quanto riguarda
l'utilizzo della propria rete. Ad esempio,
l'ISP può utilizzare questa interfaccia per
indicare un insieme di sottoreti da preferire nella scelta dei peer, in quanto provviste di accessi ad altissima velocità;
• capability: permette agli elementi del sistema P2P di richiedere specifiche capability, ad esempio un determinato livello di
banda garantita o l'accesso ad una
cache.
La soluzione P4P è stata valutata con simulazioni ed esperimenti su PlanetLab 5, ed
in field trial utilizzando il software di content
delivery distribuito da Pando Networks (variante di BitTorrent); i risultati di tale valutazione hanno mostrato notevoli miglioramenti,
sia per quanto riguarda le performance delle
applicazioni che in termini di utilizzo delle risorse di rete.
4.2
“L'Oracolo”
In maniera analoga a quanto previsto dall'architettura P4P, nella soluzione proposta
dai ricercatori di Technishe Universitat Berlin
e Deutsche Telekom, ogni operatore di rete
mette a disposizione un server, chiamato
“oracolo”, che ha lo scopo di aiutare le applicazioni P2P a scegliere peer ottimali. A differenza della soluzione P4P, invece di fornire
informazione di topologia opaca, l'oracolo
espone una funzionalità di ordinamento di
peer.
Il meccanismo è semplice: un'applicazione P2P invia all'oracolo gestito dal proprio
5 Testbed composto di circa 900 nodi distribuiti in tutto il
mondo, utilizzato da università ed enti di ricerca
(http://www.planet-lab.org/).
14
ISP la lista degli indirizzi dei potenziali peer
che condividono una risorsa a cui l'utente è
interessato – un determinato file o un relay
media, ad esempio – per poi riceverla ordinata in base alle policy di rete. Per esempio,
l'ISP può preferire i peer all'interno della propria rete, magari assegnando una priorità più
alta a quelli geograficamente più vicini o con
accessi a capacità maggiore. Quando l'applicazione avrà ottenuto la lista ordinata,
sarà poi sua responsabilità stabilire connessioni con i peer che potrà scegliere autonomamente, ma a quel punto avrà sufficiente
informazione per effettuare una selezione ottimale.
Tale soluzione che, oltre alla semplicità, ha
il pregio di riuscire a guidare la scelta dei
peer mantenendo nascosta la topologia della
rete, è stata valutata con simulazioni ed
esperimenti nel testbed PlanetLab e ha mostrato una significativa riduzione del traffico
P2P nei link inter-dominio ed un miglioramento delle performance anche quando solo
un sottoinsieme dei peer fa effettivamente
uso dell'oracolo.
5
Miglioramenti:
dove, come e quanto
Le tecniche di ottimizzazione del traffico
P2P, siano esse basate su caching, su misurazioni a livello applicativo o su esposizione di informazioni a riguardo della
topologia della rete, hanno il duplice scopo
di migliorare le prestazioni delle applicazioni
e di razionalizzare l'utilizzo delle risorse di
rete. In particolare, le soluzioni proposte
negli ultimi anni sono state studiate in simulazioni e field trial utilizzando per lo più applicazioni di file-sharing al fine di valutare i
miglioramenti in termini di velocità di download e riduzione del traffico inter-dominio.
Tra gli studi più completi ed interessanti
sono sicuramente da segnalare le già citate
Notiziario tecNico telecom italia - anno18 NumeroUNo2009
cooperazione tra internet Service Provider ed applicazioni peer-to-peer - Gianni canal, enrico marocco, Vinicio Vercellone
che di ottimizzazione (nel particolare, il trial
mirava a valutare tre diversi approcci, risultati
poi relativamente equivalenti).
I risultati ottenuti hanno mostrato una diminuzione dell'ordine dell'80% del traffico in
ingresso e del 34% del traffico in uscita 6, in
linea con i miglioramenti osservati nelle simulazioni effettuate dai ricercatori di Technishe Universitat Berlin (riduzione tra il 38% ed
il 75% delle connessioni inter-dominio [2]) e
con le previsioni pubblicate da Washington
University (riduzione teorica del traffico in ingresso fino all'86% [6]).
pubblicazioni di University of Washington [6],
che hanno valutato l'efficienza di soluzioni di
caching e di tecniche basate su “locality
awareness” nella rete di un vasto campus
universitario, e da Technishe Universitat Berlin [2], che hanno presentato i risultati di varie
simulazioni effettuate sul testbed distribuito
PlanetLab. Importanti risultati sono anche
stati pubblicati da Northwestern University e
dal forum industriale DCIA, che hanno integrato le soluzioni Ono [4] e P4P [5] in applicazioni reali e ne hanno misurato le
performance in field trial con decine di migliaia di utenti.
5.1
Riduzione del traffico
inter-dominio
5.2
Ad ottobre 2008 il provider statunitense
Comcast ha pubblicato i dati relativi ad un
field trial della soluzione P4P [11] realizzato
nel contesto del forum DCIA con la collaborazione di Pando Networks e congiuntamente ad AT&T, Verizon e Telefonica. Il grafico in figura 7 mostra la differenza di traffico
inter-dominio misurata sui peering point della
rete di Comcast, nei casi in cui la selezione
dei peer da cui scaricare i contenuti avvenga
in maniera casuale invece che tramite politi-
Performance delle applicazioni
I dati più interessanti a riguardo dell'impatto delle tecniche di ottimizzazione del traffico P2P sulle performance delle applicazioni
di file-sharing sono probabilmente quelli pubblicati da Northwestern University [4] nell'ambito del progetto Ono. La singolarità di
tali dati consiste nel fatto che essi sono stati
raccolti tramite un plugin distribuito con il
software Azureus, uno tra i più famosi client
BitTorrent, utilizzato da milioni di utenti. I risultati aggregati hanno mostrato un aumento
Figura 7 - traffico da e verso internet misurato su peering point della rete comcast
per cinque swarm di identiche dimensioni, ma
facenti uso di diverse politiche di ottimizzazione. risultati di un field trial P4P eseguito a
luglio 2008 sulle reti di comcast, Verizon,
at&t e telefonica
(Fonte: comcast)
6 Il differente impatto sul traffico inbound ed outbound è dovuto al fatto che, mentre i client all'interno della rete di Comcast effettuavano
scelte localizzate, quelli in quasi tutte le altre
reti (ad eccezione delle reti di AT&T, Verizon e
Telefonica che partecipavano anch'essi al trial)
continuavano ad effettuare scelte casuali.
Notiziario tecNico telecom italia - anno18 NumeroUNo2009
15
cooperazione tra internet Service Provider ed applicazioni peer-to-peer - Gianni canal, enrico marocco, Vinicio Vercellone
medio del 31% della velocità di download,
con picchi del 207% in zone in cui sono disponibili reti ad altissima velocità.
Un simile aumento di performance è stato
rilevato anche nei field test P4P già discussi
in precedenza; la tabella 1 mostra che, rispetto al caso tradizionale in cui la selezione
dei peer avviene in maniera casuale, la velocità di download vede un incremento che
varia tra il 13% e l'85%, in funzione della tipologia della rete e della politica di ottimizzazione adottata.
5.3
L'impatto degli accessi ad altissima
capacità
Una possibile spiegazione per tale fenomeno, peraltro osservato anche tra nuclei di
utenti Fiber To The Home (FTTH) nei primissimi field test P4P effettuati sulla rete di
Verizon 8, potrebbe essere ricercata nelle dinamiche degli swarm “maturi”, ovvero quelli
in cui il numero dei seeder è notevolmente
maggiore a quello dei leecher. In questo
caso, infatti, la capacità disponibile è maggiore di quella richiesta e dunque la scelta
dei peer più performanti ha più influenza
sulle prestazioni del sistema.
6
Application-Layer Traffic
Optimization (ALTO)
Un effetto interessante sui miglioramenti
delle performance applicative si riscontra
nelle reti in cui un sottoinsieme degli utenti
ha accessi a capacità relativamente superiore rispetto al resto della rete. Infatti, come
evidenziato dal caso di Comcast nel trial
P4P (tabella 1), quando anche solo una piccola percentuale degli utenti ha capacità di
upload maggiore alla media 7 i miglioramenti
hanno impatti significativi sulle prestazioni di
tutta la rete.
16
Affinché le soluzioni per l'ottimizzazione
del traffico P2P abbiano successo – in particolare quelle che prevedono l'esposizione di
informazioni sulla topologia della rete – è necessario che esse vengano adottate su larga
scala, sia dagli ISP che nelle applicazioni.
Telecom Italia, a partire da marzo 2008, si
è impegnata a creare un contesto in cui ren-
7 A luglio 2008 la rete di Comcast era composta di circa il
90% di accessi DOCSIS 2.0 (con banda in upload di 0.384
o 2 Mbit/s) ed il restante in tecnologia DOCSIS 3.0 (con
upload a 3, 5 o 10 Mbit/s).
8 http://openp4p.net/front/fieldtests
Swam
Global
Average
B/s
Random Peer
Assignment
144,045
P4P Fine
Grained
162,344
+13%
402,043
+57%
P4P Generic
Weight Matrix
163,205
+13%
463,782
+82%
P4P Coarse
Grained
166,273
+15%
471,218
+85%
Change
Comcast
Average
B/s
Change
254,671
tabella 1 - Performance in termini di velocita` di download misurati in quattro swarm di
identiche dimensioni, ma facenti
uso di diverse tecniche di ottimizzazione. risultati di un field
trial P4P eseguito a luglio 2008
sulle reti di comcast,
Verizon, at&t e telefonica
(Fonte: comcast)
Notiziario tecNico telecom italia - anno18 NumeroUNo2009
cooperazione
cooperazione
tra internet
tra internet
Service Provider
Service Provider
ed applicazioni
ed applicazioni
peer-to-peer
peer-to-peer
- enrico -marocco,
Gianni canal,
Gianni
enrico
canal,marocco,
Vinicio Vercellone
Vinicio Vercellone
Soluzioni commerciali per il caching
Le tecniche di caching sono già relativamente mature e disponibili dal punto di
vista industriale. Tra i vendor che dispongono di soluzioni commerciali si segnalano
ad esempio le realizzazioni dei costruttori Oversi e PeerApp. In entrambi i casi si
tratta di società startup fondate nel 2004.
Oversi, con quartier generale in Israele e finanziata in parte anche da Cisco Systems,
ha sviluppato una tecnologia di caching destinata alla gestione del traffico P2P e
video, designata con il nome commerciale OverCache™. La piattaforma Oversi
adotta un'architettura distribuita di tipo grid ed è concepita per essere inserita in
modalità out-of-band; la cache non viene quindi a trovarsi sul percorso principale
del traffico verso i clienti, con benefici sull'affidabilità di rete. La soluzione è destinata tipicamente ad essere collocata in uno o più punti d'accesso dell'ISP. La filosofia utilizzata da Oversi è quella di integrarsi con gli overlay P2P supportati in
modo da apparire come un peer. Il funzionamento della piattaforma segue quindi i
tipici passi del comportamento di un protocollo P2P. In una prima fase, OverCache™ monitora la rete, analizzando a questo scopo i messaggi di controllo del protocollo P2P, per stabilire quali sono i file più popolari e di conseguenza i candidati
ottimali per il caching. Quindi scarica dalla rete i contenuti opportuni, comportandosi come un peer, per immagazzinarli nelle cache e renderli così disponibili all'insieme dei peer locali serviti. La soluzione Oversi non intende sostituire i più
tradizionali apparati di controllo del traffico basati su tecnologie di ispezione dei
pacchetti, ma piuttosto integrarsi con questi ultimi.
PeerApp è un azienda con sede principale in Massachusetts, specializzata in soluzioni per l’ottimizzazione del traffico P2P e video streaming mediante l'impiego di
tecniche di caching. La piattaforma commercializzata da PeerApp è denominata
UltraBand™ . Anche gli apparati UltraBand adottano un’architettura distribuita di
cache server, abbinata a tecnologie di storage in rete; in questo caso però il sistema
opera a livello di data link, senza utilizzare indirizzi IP pubblici visibili, inserendosi
sul percorso del traffico per realizzare funzioni di caching trasparente. La cache
quindi non si comporta come un peer ed il suo inserimento tra gli utenti e la rete
viene realizzato da apparati che effettuano la redirezione dei flussi di traffico su
base applicativo. Le richieste inviate dagli utenti vengono quindi intercettate e ridirette verso il modulo UltraBand, che può erogare il contenuto localmente se questo è già presente in cache, oppure immagazzinarlo nel momento in cui viene
scaricato dall’utente. Al fine di garantire il funzionamento trasparente della cache,
anche nel caso che il contenuto sia erogato localmente il sistema provvede a mantenere attiva la connessione tra i peer, emulando eventuali messaggi di keepalive
scambiati dal protocollo.
È opportuno notare che, sebbene i costruttori citati affermino di ottemperare, con
le loro soluzioni, alle principali disposizioni in materia di copyright, le implicazioni
di carattere legale restano un aspetto che necessita di un'attenta valutazione al fine
di asserire l'effettiva applicabilità delle tecniche di caching nella rete di un ISP.
17
Notiziario tecNico telecom italia - anno18 NumeroUNo2009 Notiziario tecNico telecom italia - anno18 NumeroUNo2009
17
cooperazione tra internet Service Provider ed applicazioni peer-to-peer - Gianni canal, enrico marocco, Vinicio Vercellone
dere possibile una discussione che coinvolga tutti gli attori interessati: ISP, comunità
P2P, vendor di software e hardware, nonché
università. Tale contesto ha trovato spazio in
IETF, l'ente di standardizzazione che definisce i protocolli utilizzati in Internet (IP, TCP,
HTTP), nella forma del working group Application-Layer Traffic Optimization (ALTO) 9.
La roadmap di ALTO, approvata a novembre 2008 e della durata di due anni, prevede
uno studio dettagliato dei requisiti di service
provider ed applicazioni che porterà alla specifica di un protocollo per l'esposizione controllata delle informazioni necessarie
all'ottimizzazione del traffico P2P.
7
Opportunità di Business
L'ottimizzazione del traffico P2P è in
primo luogo di interesse per gli ISP in ottica
di riduzione dei costi e razionalizzazione
delle risorse di rete. Infatti, la motivazione
che ha inizialmente attratto l'interesse industriale è stata proprio la prospettiva di ridurre il traffico P2P sui link inter-dominio,
cioè quello che incide in maniera più significativa sui costi di transito Internet, di una
quota che, come si è visto, è ragionevole attendersi tra il 40% e l'80%. Inoltre, a differenza degli approcci che mirano a limitare
il traffico P2P, le tecniche di ottimizzazione
basate su caching e localizzazione portano
ad una situazione win-win, dove sia gli
utenti che i service provider ne hanno un
beneficio.
Lo stesso vantaggio che trarrebbero gli
utenti dall'accesso ad una rete “ottimizzata”
per il P2P può costituire anche un punto di
forza, sia in ottica competitiva, cioè come
9 http://www.ietf.org/html.charters/alto-charter.html
18
fattore determinante nella scelta da parte
del cliente del service provider con cui stipulare un abbonamento ad Internet, sia
come servizio a valore aggiunto, per cui i
clienti interessati siano disposti a riconoscere un corrispettivo all'effettivo aumento
delle prestazioni delle proprie applicazioni.
Quest'ultimo caso, probabilmente il più attraente dal punto di vista commerciale, è in
particolare ipotizzabile in scenari in cui, ad
esempio, il servizio di ottimizzazione esposto ad utenti “premium” permetta un aumento delle prestazioni significativamente
maggiore rispetto a quello offerto alla clientela “base”.
Come discusso nelle sezioni precedenti,
un tale miglioramento è ipotizzabile soprattutto in reti in cui una parte degli accessi –
non necessariamente la parte “premium” –
ha capacità di upload significativamente
maggiore rispetto alla media (ad esempio
FTTH) e nel caso in cui l'informazione esposta agli utenti sia altamente personalizzata
(come ad esempio avviene nella soluzione
basata su un “oracolo” che fornisce una
funzione di ordinamento di liste di indirizzi
IP) e non praticamente condivisibile. È in
ogni caso importante tenere in considerazione che, per l'effettiva diffusione delle tecniche basate sulla localizzazione del traffico
– e di conseguenza per il loro successo – è
indispensabile che tutti gli utenti ne possano trarre un qualche beneficio.
Infine, un'ulteriore opportunità che deriva
dall'applicazione innovativa di queste tecniche consiste nell'esposizione di informazione “pregiata” e nell'abilitazione all'utilizzo
di eventuali infrastrutture di caching, non direttamente agli utenti, ma a compagnie che
utilizzano tecnologie P2P per la distribuzione di contenuti. Oltre al caso di Pando
Networks, tra le fondatrici del gruppo P4P
e distributrice autorizzata dei contenuti di
Discovery Channel e Comedy Central, ricadono in questa categoria anche compagnie
come l'emittente britannica BBC, che uti-
Notiziario tecNico telecom italia - anno18 NumeroUNo2009
cooperazione tra internet Service Provider ed applicazioni peer-to-peer - Gianni canal, enrico marocco, Vinicio Vercellone
tecnico in IETF dove verrà discussa una
soluzione condivisa al problema.
L’applicazione di queste tecniche presenta vari aspetti di beneficio per gli ISP.
Oltre al vantaggio per i costi di gestione
dell’infrastruttura di rete dato dalle prospettive di razionalizzazione del traffico P2P,
offre anche un elemento di differenziazione, costituendo quindi un fattore determinante sia nella scelta del service
provider da parte del cliente, che nella sua
disponibilità a riconoscere un corrispettivo
“premium” dato dall'effettivo aumento delle
prestazioni.
Un’altra promettente prospettiva è rappresentata dall’applicazione del modello
strategico Service Exposure che, tramite
l'esposizione controllata di funzionalità di
rete (ad esempio infrastrutture di caching)
e con l’apertura di informazioni di topologia
ad aziende che intendono investire in nuovi
paradigmi per la distribuzione di contenuti,
apre la strada a modelli di business innovativi.
lizza il software iPlayer per distribuire repliche dei propri programmi televisivi, e la
stessa BitTorrent Inc., che offre la piattaforma commerciale di CDN BitTorrent DNA.
Quest'ultima opportunità, tanto più promettente quanto più si diffonderà l'adozione
di tecnologie P2P per il content delivery,
rappresenta un ulteriore fronte di applicazione del modello strategico di Service Exposure che, con l'apertura di informazioni di
topologia di rete ed accesso controllato a
specifiche capability, permette di applicare
nuovi modelli di business ad un contesto al
momento poco adeguatamente esplorato.
8
Conclusioni
Le tecniche di ottimizzazione del traffico
P2P presentate in questo articolo – ed in
particolare quelle basate su collaborazione
tra applicazioni e ISP – hanno recentemente ricevuto notevole attenzione e sembrano promettenti, ma il loro successo
dipenderà in primo luogo dal fatto che si
riesca a proporre una situazione win-win da
cui sia gli utenti che i service provider ne
traggano un effettivo beneficio.
La situazione attuale è incoraggiante:
service provider come Comcast, Verizon,
Telefonica, AT&T e Deutsche Telekom
hanno investito una significativa quantità di
risorse, coinvolgendo oltre al mondo industriale (Cisco Systems, Alcatel-Lucent, Juniper Networks, Microsoft) ed accademico
(Yale University, Technishe Universitat Berlin), anche compagnie come BitTorrent Inc.
e Pando Networks che hanno fatto del P2P
il core del loro business.
Telecom Italia ha finora contribuito attivamente, in particolare in ambito di standardizzazione, ponendosi alla guida insieme
ad Alcatel-Lucent e Neustar di un forum
A
Notiziario tecNico telecom italia - anno18 NumeroUNo2009
CRONIMI
ALTO: Application-Layer Traffic Optimization
CDN: Content Delivery Network
DCIA: Distributed Computing Industry Association
FTTH: Fiber To The Home
GNP: Global Network Positioning
ICS: Internet Coordinate System
IETF: Internet Engineering Task Force
ISP: Internet Service Provider
P2P: Peer-to-peer
P4P: Provider Portal for P2P Applications
RTT: Round Trip Time
19
cooperazione tra internet Service Provider ed applicazioni peer-to-peer - Gianni canal, enrico marocco, Vinicio Vercellone
B
IBLIOGRAFIA
[1] A. Parker. “The true picture of peer-to-peer
filesharing.” http://www.cachelogic.com
[2] V. Aggarwal, A. Feldmann, and C. Scheidler.
“Can ISPs and P2P systems co-operate for
improved performance?” In ACM SIGCOMM
Computer Communications Review (CCR),
37:3, pp. 29-40, July 2007
[3] F. Dabek, R. Cox, F. Kaashoek, and R. Morris. “Vivaldi: A Decentralized Network Coordinate System.” In Proc. of ACM SIGCOMM,
August 2004
[4] D.R. Choffnes and F.E. Bustamante, “Taming the Torrent: A practical approach to reducing cross-ISP traffic in P2P systems.” In
Proc. of ACM SIGCOMM 2008, 38(4), pp.
363-374, October 2008
[5] H. Xie, Y. R. Yang, A. Krishnamurthy, Y. Liu,
and A. Silberschatz. “P4P: Provider Portal
for Applications.” In ACM SIGCOMM Computer Communications Review (CCR), 38:4,
pp. 351-362, October 2008
[6] K. P. Gummadi, R. J. Dunn, S. Saroiu, S. D.
Gribble, H. M. Levy, and J. Zahorjan. “Measurement, Modeling, and Analysis of a
Peer-to-Peer File-Sharing Workload.” In
Proc. of the 19th ACM Symposium on Ope-
rating Systems Principles (SOSP-19),
October 2003
[7] S. Saroiu, K. P. Gummadi, R. J. Dunn, S. D.
Gribble, and H. M. Levy. "An Analysis of Internet Content Delivery Systems." In Proc.
of Fifth Symposium on Operating Systems
Design and Implementation (OSDI), Dic.
2002
[8] T. S. E. Ng, and H. Zhang. “Predicting internet network distance with coordinates-based
approaches.” In Proc. of IEEE INFOCOM,
June 2002
[9] M. Costa, M. Castro, A. Rowstron, and P.
Key. “PIC: Practical Internet coordinates for
distance estimation.” In Proc. Of International Conference on Distributed Systems,
Tokyo, Japan, March 2004
[10] B. Wong, A. Slivkins, and E. G. Sirer. “Meridian: A lightweight network location service
without virtual coordinates.” In Proc. of ACM
SIGCOMM, August 2005
[11] C. Griffiths, J. Livingood, and R. Woundy.
“Comcast's ISP Experiences In a Recent
P4P Technical Trial.” Internet Draft (Work in
Progress), http://tools.ietf.org/id/draft-livingood-woundy-p4p-experiences
[email protected]
[email protected]
[email protected]
20
Notiziario tecNico telecom italia - anno18 NumeroUNo2009
cooperazione tra internet Service Provider ed applicazioni peer-to-peer - Gianni canal, enrico marocco, Vinicio Vercellone
A
UTORI
Gianni canal
enrico marocco
Vinicio Vercellone
laureato in Scienze dell’Informazione, in Telecom Italia dal
1992. Dal 1995 si è occupato
di evoluzione dell’Intelligenza
in rete, applicando le emergenti tecnologie IT al contesto
di integrazione Internet/Telecom. Tra il 2000 e il 2004 è
stato rappresentante Telecom
Italia in SIP Forum e pioniere
della tecnologia SIP, coordinando il progetto di sviluppo in
partnership con Italtel della soluzione pre-IMS per servizi
voce su rete broadband (oggi
Alice Voce). Dal 2003 è responsabile di una struttura di
innovazione presso Telecom
Italia Lab, occupandosi di Service Layer Architecture con la
responsabilità dell’adozione
della SOA in ambito Network.
Dal 2007 ha la responsabilità
operativa del progetto Service
Exposure orientato all’ingegnerizzazione di un’infrastruttura
di intermediazione tra le funzionalità di rete e le terze parti.
È inoltre autore di numerosi articoli su tematiche di Network
Intelligence ■
laureato in Informatica, entra in
Telecom Italia nel 2003, prendendo parte da subito a progetti di sviluppo e messa in
campo della prima rete SIP di
Telecom Italia. Dal 2005 è
coinvolto in attività di ricerca
su tecnologie di comunicazione peer-to-peer; guida il
progetto open-source SIPDHT
e contribuisce a varie attività di
standardizzazione in IETF, in
particolare su tematiche legate
a SIP e P2PSIP. Dal 2008,
sempre in IETF, ricopre la carica di Chair del working group
Application-Layer Traffic Optimization (ALTO) ■
laureato in Ingegneria Elettronica, nel 1984 è entrato in
Azienda. Da allora opera nel
settore innovazione di Telecom
Italia, dove ha inizialmente collaborato a progetti di ricerca
sullo sviluppo della tecnica
ATM. In seguito ha contribuito
a numerose attività riguardanti
l'innovazione nel settore del
networking IP ed MPLS e
nell’offerta di servizi di rete. In
questi ambiti è coautore di diverse domande di brevetto.
Dal 1997 al 2000 è stato
anche docente presso il Politecnico di Torino. Attualmente
svolge la sua attività nell'area
Broadband Network Services
Innovation, occupandosi di
evoluzione delle architetture di
rete IP e partecipando al progetto europeo FP7 4WARD
“Future Internet” ■
Notiziario tecNico telecom italia - anno18 NumeroUNo2009
21
Scarica

nr. 1 - Telecom Italia