RAPPORTO DI RICERCA PER SAP ITALIA VELOCITA’ AZIENDALE E TECNOLOGIE MEMORY: UNA PROSPETTIVA MANAGERIALE A cura di Paolo Pasini Angela Perego Rapporto di Ricerca per SAP Italia Velocità aziendale e tecnologie In-Memory: una prospettiva manageriale a cura di Paolo Pasini Angela Perego IN- Pubblicato nel mese di Maggio 2012 © 2012 SDA Bocconi School of Management e SAP AG. Tutti i diritti riservati. Indice 1 2 Le ICT e i nuovi orizzonti del management aziendale .............................................. 7 La velocità aziendale come elemento di competizione ......................................... 14 2.1 La velocità dell’innovazione ........................................................................... 15 2.2 La velocità dei processi aziendali.................................................................... 16 2.3 La velocità di reazione a eventi inattesi ......................................................... 18 3 Le tecnologie In-Memory: elementi distintivi e di innovazione ............................. 20 4 Gli ambiti di applicazione delle tecnologie In-Memory per la Velocità aziendale: alcuni casi internazionali ................................................................................................ 25 5 I benefici e il valore aziendale dell’In-Memory ...................................................... 31 5.1 La velocità aziendale ....................................................................................... 31 5.2 L’informazione di ogni tipo, in ogni luogo, in ogni tempo ............................. 31 5.3 Il superamento della distinzione tra sistemi informativi transazionali e sistemi di BI ........................................................................................................................ 32 5.4 Miglioramento della catena performance tecniche-performance aziendali: le analisi alla “velocità del pensiero” ............................................................................. 33 5.5 Libertà di analisi .............................................................................................. 35 5.6 Minor Time-to-Delivery .................................................................................. 35 5.7 Maggiore “effetto esperienza” ....................................................................... 36 5.8 Ottimizzazione dei costi di gestione IT ........................................................... 37 5.9 Minor complessità di gestione IT ................................................................... 38 6 Conclusioni ............................................................................................................. 40 Bibliografia ...................................................................................................................... 42 © 2012 Divisione Ricerche “Claudio Demattè” 3 SAP Italia 4 SDA Bocconi School of Management © 2012 Divisione Ricerche “Claudio Demattè” Gruppo di Lavoro SDA Bocconi School of Management Paolo Pasini Professore di IS Strategy e Management, senior lecturer e direttore dell’Osservatorio Business Intelligence presso SDA Bocconi. Professore a contratto presso l’Università Commerciale Luigi Bocconi di Milano. Docente ufficiale del Master universitario in Project and Information Management. Angela Perego Lecturer di Sistemi Informativi presso SDA Bocconi. Docente ufficiale del Master in Project and Information Management e del Master in Economia e Management dei Trasporti, della Logistica e delle Infrastrutture presso l’Università Commerciale Luigi Bocconi di Milano. © 2012 Divisione Ricerche “Claudio Demattè” 5 SAP Italia 6 SDA Bocconi School of Management © 2012 Divisione Ricerche “Claudio Demattè” Tutti questi fenomeni aziendali hanno un denominatore comune, la velocità, che è diventata una condizione sempre più determinante per: 1 Le ICT e i nuovi orizzonti del management aziendale svolgere i processi e le attività aziendali (es. un processo commerciale, la creazione di un nuovo concept di prodotto, la produzione di un conto economico Nel campo del business management il nuovo millennio si è aperto con nuove suggestioni derivate dall’impiego delle ICT che hanno dato vita a filoni di pensiero e di ricerca innovativi: Real Time Enterprise, Data Explosion e oggi Big Data (dati strutturati e non strutturati, social web data, location data, dati da Internet delle cose e M2M, etc.), Next Generation Business Intelligence e di prodotto o di cliente, la comunicazione di marketing con media digitali); trattare in modo integrato grandi volumi di dati eterogenei (es. dati di vendita, reclami a un customer care e commenti sui blog o nei social network, dati di geo-localizzazione) e ottenere un’informazione rilevante (es. di insight nel comportamento di acquisto di un Analytics (inclusa la RealTime BI o la BI embedded nei processi operativi aziendali), In-Memory Computing, Open Innovation (e Co-Innovation), Global, Networked e Liquid Enterprise. segmento di clientela e delle sue percezioni di qualità verso il prodotto), fenomeno che oggi viene menzionato con l’espressione “Big Data”; Trattamento “integrato” di grandi volumi di dati eterogenei Processi e attività aziendali Velocità Gestione delle relazioni digitali e della ubiquità dei dati e delle persone © 2012 Divisione Ricerche “Claudio Demattè” Rilevazione, archiviazione, elaborazione, distribuzione e presentazione dei dati con sistemi ICT 7 SAP Italia SDA Bocconi School of Management rilevare, archiviare, elaborare, distribuire e presentare i dati generati utilizzando i sistemi ICT; gestire le relazioni digitali tra le persone, le imprese e le istituzioni e che permettono la “ubiquità” dei dati e degli individui. La velocità riguarda quindi, il tempo, il ritmo delle cose, del lavoro, delle persone, ma la velocità senza controllo, senza finalità, non genera utilità, non genera valore, soprattutto nel campo economico-aziendale. E il controllo oggi è sempre più esercitato da una combinazione di persone e di sistemi informatici che lo supportano. La metafora delle auto di Formula 1 fornisce un buon esempio per capire come si combinano in modo esemplare queste due capacità di controllo (gli strumenti ICT di bordo collegati in RealTime a quelli di scuderia, la squadra e il pilota). Si può andare oltre. La velocità oggi a disposizione delle aziende si concretizza nella capacità potenziale di ridurre il tempo necessario non solo per l’esecuzione di un’attività, ma anche per la sua finalizzazione, per il cambiamento repentino e “in corsa” dei suoi obiettivi o delle sue relazioni con altri processi, e questa è la vera e rivoluzionaria novità per la gestione d’azienda. La metafora del navigatore satellitare nel guidare il percorso verso una destinazione può aiutare a 8 comprendere questo aspetto, nel caso in cui la destinazione debba cambiare in modo inaspettato: la reimpostazione “in corsa”, durante il viaggio, in tempo reale, della nuova località consente velocemente di riprogrammare il percorso e le risorse necessarie (tempo, carburante, pedaggi, etc.) per raggiungere l’obiettivo, senza lunghe attese dovute alla ricerca dei dati, alla loro elaborazione, alla presentazione delle informazioni rilevanti e alla loro interpretazione. È chiaro che il muoversi in un contesto dove si hanno tutti i dati a disposizione, in un contesto dove i tratti stradali sono definiti, le distanze sono finite e calcolabili, consente di affrontare un problema con un margine di errore ridotto e accettabile. Per riavvicinarsi al contesto più reale e incerto in cui operano le aziende è necessario menzionare il fatto che i tratti stradali cambiano, “lentamente” ma cambiano (e quindi i dati delle mappe vanno aggiornati frequentemente), i lavori in corso o gli incidenti possono bloccare la © 2012 Divisione Ricerche “Claudio Demattè” SDA Bocconi School of Management circolazione (e questo rende necessario disporre di un sistema di informazione in tempo reale sulle condizioni del traffico), questi eventi incerti condizionano lo svolgimento del percorso, e quindi potrebbe essere necessario programmare delle deviazioni o scegliere un percorso non ottimale; comunque il sistema di informazione (il navigatore) è sempre disponibile, a supporto continuo e in tempo reale del “guidatore-decisore”, elaborando sia dati storici disponibili (i dati georeferenziati delle mappe geografiche), sia i dati che sono resi disponibili in tempo reale (i dati GPS dei veicolo in movimento, i dati sul traffico), sia i dati forniti dal “decisoreguidatore” (le destinazioni, le caratteristiche del percorso desiderato, più veloce o più breve, etc.). Quest’ultima metafora può aiutare in modo semplice a comprendere cosa significherebbe per le imprese disporre di un simile sistema di “navigazione aziendale” che le supportasse a muoversi anche su terreni spesso sconosciuti, imprevisti, incerti. La complessità crescente della gestione SAP Italia aziendale di cui si parla spesso, di fatto è generata da due fattori prevalenti: la crescente velocità dei cambiamenti (di percorso) necessari; la crescente incertezza degli scenari (cioè, dei terreni in cui muoversi) e dei risultati generabili dalle scelte possibili (in termini di performance, cioè in termini di tempi e risorse impiegate per raggiungere destinazione desiderata). la Ora questo sistema di “navigazione aziendale” si sta velocemente configurando all’orizzonte, facendo leva sulla convergenza di strumenti tecnologici di memorizzazione, elaborazione e trasmissione di dati digitali, di competenze delle persone, di disponibilità tempestiva di elevati volumi di dati di ogni natura, di strumenti di scouting, ricerca, selezione e interpretazione intelligenti, che consentono di superare i tradizionali ostacoli dell’”Information Overloading” e dalla “Paralysis by Analysis”. Questo nuovo sistema da configurare e personalizzare in ogni impresa ha la capacità di superare molti dei paradigmi manageriali oggi conosciuti: ad esempio non avrà più senso distinguere tra dati operativi e dati direzionali, o tra sistemi transazionali e sistemi di analisi e di informazione; il dato che serve per perfezionare un ordine online di un © 2012 Divisione Ricerche “Claudio Demattè” 9 SAP Italia SDA Bocconi School of Management cliente, è immediatamente disponibile per un’attività in tempo reale o quasi reale, di profilazione del cliente, di upselling o di cross-selling, di promozione di altri prodotti o di ricalcolo in tempo reale della redditività del cliente stesso; oppure il dato di geo-localizzazione di un’auto di un cliente (che ha autorizzato la sua geolocalizzazione!) di un servizio di sorveglianza satellitare o di un’assicurazione, può servire avere queste situazioni di ricavi e costi aggiornate in tempo quasi reale dopo ogni operazione di vendita o di acquisto. Così come sarebbe rivoluzionato pesantemente il processo di pricing dei prodotti o dei servizi potendo applicare concetti di revenue management in tempo reale, non solo nella vendita di una stanza di hotel o di un posto aereo o treno man mano che si avvicina la data di consumo, ma immediatamente sia per attivare interventi operativi (in caso di soccorso), sia per effettuare azioni di geo-promozione in operazioni di location-marketing su device mobili, sia per analizzare il comportamento di guida del cliente al fine della determinazione del prezzo della sua polizza. Oppure più semplicemente non sarà più necessario trasportare e estendendo questa idea di Dynamic Pricing anche a tutti i prodotti deperibili di un retailer (non solo al pesce!) man mano che si avvicina la data di scadenza, oppure ai biglietti per uno spettacolo, alla “distribuzione temporale intelligente” dei saldi nell’abbigliamento anche durante la singola giornata di apertura di ogni singolo punto vendita di proprietà, manipolare i dati operativi contabili delle aziende dai database transazionali in database dedicati all’analisi (datawarehouse o datamart), dal momento in cui tutti i dati operativi elementari o intermedi possono essere disponibili in strutture dati libere, in ambienti ad altissima velocità di accesso (tipicamente in memoria RAM, e non su disco fisico). Altrettanto potrebbe non avere più senso pensare oppure alla vendita B2B o B2C di macchine per il condizionamento, oppure nel pricing di un progetto a saturazione di risorse nel campo dei servizi professionali, oppure nel pricing orario dell’energia, e così via. a livello gestionale, alle chiusure contabili, ai conti economici di prodotto, di cliente, di Business Unit o aziendali come a situazioni di periodo, quando potenzialmente si potrebbe 10 Altresì potrebbe trasformarsi un altro dei grandi paradigmi del management che contrappone il “grande” al “piccolo”, le economie di scala alle economie di flessibilità: se in alcuni settori (ad es. nei consumer package goods) non c’è dubbio che la dimensione di impresa su scala globale è vincente e indispensabile, in realtà © 2012 Divisione Ricerche “Claudio Demattè” SDA Bocconi School of Management oggi è il “veloce” che vince contro il più “lento” (economie di velocità). Come in tutti i cambiamenti generati dalle tecnologie, anche in questo caso il change management deve azionare leve che riguardano anche le persone, la cultura: nuovamente la velocità senza un adeguato controllo non genera alcun valore in azienda. Le persone, il management aziendale devono saper convivere con la velocità ed essere in grado di governarla, per poterla sfruttare al meglio, generando performance incrementali. I seguenti punti possono aiutare a riassumere i principali cambiamenti già in atto e basati sulle ICT, che prospettano alcuni nuovi orizzonti del management aziendale: 1. Trasformare il modo in cui le persone pensano, analizzano i fatti, pianificano e agiscono: nuovi skill sono necessari, ma soprattutto nuovi atteggiamenti nei confronti delle ICT, passando da molti fenomeni di moda e di “consumerization” (ad es. riguardo i device mobili o il social web), ad un reale impiego nella gestione aziendale. 2. Velocizzare i processi di Innovation Management, sia di prodotto/servizio (dall’idea generation al concept al testing e allo sviluppo), sia di processo © 2012 Divisione Ricerche “Claudio Demattè” SAP Italia (interno esterno, operativo o manageriale), generati dalle ICT. 3. Far funzionare in modo sincrono elevati volumi di transazioni e operazioni aziendali con veloci ed evolute attività di analisi dei dati strutturati (es. dati contabili) e non strutturati (es. dati del social web, di geolocalizzazione, di audio-video) generati da questi processi operativi online e offline. 4. Velocizzare le decisioni aziendali con un numero maggiore di informazioni rilevanti (e quindi opportunamente selezionate) e con sistemi di comunicazione e collaborazione ad alta velocità, in tempo reale, tra persone, tra team di lavoro, tra imprese. 5. Aumentare i cicli/ritmi di misurazione, di monitoraggio e di analisi dei fatti aziendali per innescare veloci attività “trial and error”, veloci cicli di “Analyze, Plan, Act and Control”, piuttosto che profondi e lenti processi di decisione analitica: Analyze Plan Control Act 11 SAP Italia SDA Bocconi School of Management L’impiego di tecnologie di Business Intelligence (BI Tools e BI Analytics) in modalità RealTime è ancora allo stato embrionale e sperimentale: ampi spazi di diffusione esistono in tutti i settori economici rappresentati dal campione di 120 imprese indagate nella ricerca. Infatti il 49% del campione deve gestire processi decisionali strategici con frequenza inferiore ai 3 mesi, un tempo decisamente “faticoso” per impostare e svolgere un tipico progetto IT; la soluzione in queste imprese risiede nel creare le condizioni il più “naturali” possibili per produrre e distribuire le informazioni necessarie a questi processi decisionali , cioè una piattaforma aziendale di BI flessibile, usabile anche in modalità “user self-service”, che possa gestire un’ampia e profonda base di dati aziendali di qualità e aggiornati con tempestività differente, fino al tempo reale ove necessario e opportuno. Tuttavia la maggioranza (il 57% dei rispondenti IT e il 69% delle persone non IT) dichiara un livello soddisfacente o perfettamente coerente nei tempi di produzione delle informazioni critiche per la direzione aziendale: la percezione media sui tempi di attesa non si presenta quindi particolarmente critica. Questo si spiega sicuramente in parte con la presenza di sistemi di BI efficienti nei tempi di produzione delle informazioni, in parte nell’ancora diffusa inconsapevolezza del significato e dell’utilità del Real Time nella velocizzazione dei cicli di controllo e di decisione operativi e direzionali. A sostegno dell’ultima affermazione, e a dimostrazione del fatto che i sistemi di BI attuali sono insufficienti, interviene il giudizio sugli ostacoli principali nello svolgimento dei processi decisionali strategici per l’impresa, dove al 2° posto, più di un terzo del campione, cita la mancanza di informazioni di qualità, in termini di completezza, affidabilità, aggiornamento e tempestività (mentre al primo posto si citano ostacoli di carattere organizzativo che esaltano il ruolo che potrebbe svolgere oggi la c.d. “BI collaborativa” e la “BI Mobile”). In questo quadro però la funzione SI ha un ruolo riconosciuto di primo piano da parte della proprietà e del top management delle imprese, ruolo tutto da giocare anche in termini di spinta all’innovazione dei sistemi di BI finora realizzati e gestiti. Da osservare come principali candidati delle tecnologie di BI RealTime, nel settore Finance, i processi di gestione del rischio, della sicurezza on-line e dei Sistemi informativi; nel settore Manifatturiero, i processi di Controllo di gestione, Produzione e Fatturazione; nel settore dei Servizi in generale, Media, Utilities e GDO, i processi di Controllo di gestione, Fatturazione e Sistemi Informativi. Stranamente più assenti sono i processi Commerciali e di Marketing, soprattutto on-line, che sono tipicamente e storicamente interessati da analisi in tempo reale dei fenomeni in corso. Poco impiegati sono i sistemi di Alerting automatici all’interno dei sistemi di BI RealTime e non RealTime, che potrebbero dare un impulso interessante al cd. “management by exception”, attirando l’attenzione manageriale solo sui fenomeni che superano certe soglie di sicurezza o di tolleranza o che deviano da modelli di comportamento usuali. Gli ostacoli percepiti come più forti nell’introduzione delle tecnologie di BI RealTime, sono le ancora le classiche 3 “C”: costi, cultura e competenze! SDA Bocconi - Ricerca sulle informazioni in RealTime in Italia, 2011. 12 © 2012 Divisione Ricerche “Claudio Demattè” SDA Bocconi School of Management SAP Italia meno capacità di “andare in profondità” e più capacità di “mettere in relazione” i fatti e di reagire in modo esperto, deduttivo, basando le decisioni su fatti documentati in continuo, in tempo sempre più reale. 6. Essere coscienti che il sogno della “real time enterprise” può avverarsi solo in alcuni business (es. le web company) o in nicchie di aprono nel campo delle analisi e delle decisioni, ma solo se si possiedono anche le capacità di chiudere il cerchio, il loop “Analyze, Plan, Act and Control”: in altri termini, la più veloce e sofisticata capacità di analizzare fatti e decidere (“insight”) deve necessariamente scaricarsi a terra in azioni innovative, fattibili, veloci, economicamente convenienti (nel attività/processi aziendali fisici (es. processi produttivi) o con particolari caratteristiche (es. fraud detection, trading finanziario), mentre nuove opportunità di “Near RealTime” si marketing, nel business development, nella finanza, etc.), diverse da prima, altrimenti resta un potenziale inespresso e fine a sé stesso. © 2012 Divisione Ricerche “Claudio Demattè” 13 2 La velocità aziendale come elemento di competizione Nel paragrafo precedente si è velocemente i nuovi bisogni della domanda contribuisce a velocizzare sia il time to innovate che il time to market, altrettanto chiaro è che commettere errori in questa attività può portare alla perdita di investimenti di sviluppo e di marketing. Tutto ciò ha portato negli ultimi anni a sviluppare modelli di Open Innovation, e in particolare di Co-Innovation con i clienti attuali o potenziali, che permettono di detto che la competizione oggi si gioca soprattutto tra chi è “lento” e chi è “veloce”: veloce nell’innovazione di prodotto/servizio (“time to innovation”), nel diversificarsi a livello geografico, nei prodotti/servizi, veloce nei processi aziendali, veloce nel reagire a eventi imprevisti (“time to market”), e infine veloce nel “time to profit”. ridurre i rischi di un Product o Service Development errato e i rischi finanziari collegati, non allungando i tempi di sviluppo, anzi riducendoli con approcci collaborativi. La velocità aziendale assume quindi molti significati. pagamento di una fattura), con una La velocità può indicare il “time to innovation”, perseguito sia con la riduzione dei leadtime dalla fase di idea generation, alla fase di concept, alla fase di testing, alla fase di sviluppo, sia con l’aumento della frequenza di presentazione al mercato di nuovi prodotti o servizi. Oppure il “time to market” dei prodotti/servizi, cioè il tempo che intercorre dalla disponibilità di un nuovo prodotto/servizio al suo lancio sul mercato. È evidente che una buona capacità di individuare e rilevare 14 Velocità può significare anche puntualità, cioè rispetto degli impegni (di tempo) assunti con un cliente (es. nella consegna di una commessa o di un ordine), con un fornitore (es. nel Innovazione Processi aziendali Reazione a eventi inattesi © 2012 Divisione Ricerche “Claudio Demattè” SDA Bocconi School of Management SAP Italia funzione aziendale interna (es. nei tempi di rilascio di un progetto IT applicativo). Quest’ultimo aspetto riguarda strettamente la capacità di eseguire “velocemente” i processi aziendali, operativi e direzionali. Infine velocità è assimilabile al concetto di tempestività di business, cioè al fatto di essere i “primi” a effettuare un’azione sul mercato o al fatto di reagire prontamente a un evento imprevisto che si è manifestato sul mercato: una decisione sul pricing dei prodotti è tempestiva se è presa prima che avvenga un fatto esterno che ne neutralizza o limita l’impatto e l’efficacia commerciale (es. un riadeguamento dei prezzi del competitor principale); oppure la decisione di lanciare un nuovo prodotto sul mercato come reazione a un nuovo prodotto del principale competitor, è tempestiva se avviene in un arco di tempo tale da non concedere rilevanti vantaggi di posizione al concorrente “first comer”. 2.1 La velocità dell’innovazione L’innovazione è un processo molto complesso, i cui effetti incidono in maniera diffusa e pervasiva su tutti i processi dell’azienda, da quelli produttivi e logistici, a quelli distributivi e commerciali, a quelli di comunicazione e di marketing, a quelli amministrativi e L’innovazione può di controllo. essere radicale, casuale, saltuaria, oppure può essere incrementale, può essere innovatività, ossia la capacità di generare continuamente prodotti nuovi e di successo in misura sostenibile dalle routine dei processi aziendali (Baglieri, 2012). L’innovatività consiste nella costruzione di processi e competenze che consentano di mantenere costantemente allineata la posizione tecnologica dell’impresa alla sua Una ricerca SDA Bocconi sul tema della Velocità aziendale, tra cui la velocità dell’Innovazione, ha evidenziato (Baglieri, 2012) l’importanza dei seguenti aspetti: Velocità. Non è un valore assoluto, ma relativo. Non è tuttavia la velocità a determinare il successo della singola innovazione, ma il suo ritmo di manifestazione sul mercato ne costituisce il fattore di successo competitivo. Ascolto del cliente. È una determinante del successo dell’innovazione molto più efficace della tecnologia. Anticipazione del cliente. Ascoltare il cliente non significa “appiattirsi” nel miglioramento incrementale, che pure è essenziale, ma avere la capacità di reinterpretare i feedback del cliente in chiave originale e reinventare i prodotti e i servizi anticipando i bisogni dei clienti. Semplicità. L’innovazione veloce, ma complessa, fallisce. L’innovazione deve garantire al cliente una risposta semplice ai propri problemi. © 2011 SDA Bocconi – Forum Eccellenza Operativa. © 2012 Divisione Ricerche “Claudio Demattè” 15 SAP Italia SDA Bocconi School of Management posizione competitiva e di sostenere e accrescere il vantaggio competitivo dell’azienda proprio attraverso la transizione continua della tecnologia sui prodotti e sui processi aziendali (Baglieri, 2012). In entrambi i casi, l’impiego delle ICT e l’esternalizzazione a clienti, a fornitori o a comunità di ricerca di consistenti attività di innovazione, ha generato una forte riduzione dei tempi di sviluppo 2.2 La velocità dei processi aziendali dell’innovazione. Numerose esperienze di ricerca sostengono che è significativa sotto il profilo strategico la “cadenza” con la quale si rilasciano le innovazioni sul mercato. Se, ad esempio, si osserva la strategia di innovazione di SMH, il consorzio svizzero dei produttori dei celebri orologi Swatch, si noterà che, successivamente alla prima tiepida standardizzazione. E questo vale per ogni tipologia di processo. Per Ing Direct anche il processo di acquisizione del cliente e di attivazione del primo contratto deve essere standard, semplice, veloce, automatizzato e tracciabile con un forte impiego di ICT. Per BTicino la velocità dei processi passa attraverso una revisione del processo di consegna anche per quei prodotti finiti di classe B e C che accoglienza riservata dal mercato al prodotto, si decise di introdurre quale elemento di innovazione e differenziazione proprio il concetto della collezione, ossia del ritmo prefissato e scandito dalle stagioni nella moda, settore al quale l’orologio al quarzo con lancette si prefiggeva di accostarsi come accessorio. Oppure rilevanti sono i casi di Sisal nel settore rappresentano il compendio di gamma e per i quali a magazzino erano detenuti minimi livelli di stock, con l’obiettivo quindi di migliorare il livello di servizio riducendo contemporaneamente le scorte. Passando da una gestione tradizionale della domanda basata su sistemi MRP su previsione, a una produzione “tirata” dalle esigenze del cliente che richiedeva del gioco con le continue varianti di “Win for Life” o di Sky con SkyGo, ennesima innovazione nelle modalità di fruizione di contenuti televisivi. frequenze di consegna elevate, per quantità sempre più ridotte e tempo, la velocità diventava cruciale. 16 La velocità dei processi aziendali ha molti modi per esprimersi, e considerando che sono il modo per le aziende di costruire e svolgere routine, cioè procedure e attività ripetitive e strutturate in fasi, quasi sempre hanno l’obiettivo di generare efficienza, produttività, trasparenza e sempre più di prodotto variabili nel di processo © 2012 Divisione Ricerche “Claudio Demattè” SDA Bocconi School of Management SAP Italia Ancora, velocità dei processi può significare per le imprese di produzione alimentare, come Illy nel comparto del caffè o Mutti nel comparto del pomodoro, automatizzare il processo di raccolta, controllo e tracciamento dei dati di qualità delle materie prime e dei semilavorati, per poter agire tempestivamente nei casi in cui si manifestino anomalie e fuori norma. trasportatori di palmari su quali registrare l’avvenuta consegna della merce), dall’altra ha affidato in outsourcing i processi amministrativi. In DHL Supply Chain l’impiego delle ICT per velocizzare i processi aziendali non core ha agito su due fronti: da una parte ha dematerializzato gran parte dei processi documentali (es. dotando i contraffazioni, ridurre i tempi di attivazione e di consegna della polizza al cliente e risparmiare quindi sui costi di spedizione. Sulla scia della de-materializzazione, molte assicurazioni sono pronte a migliorare e velocizzare il servizio al cliente trasformando in elettronico anche l’attuale contrassegno di assicurazione, al fine di ridurre le I risultati emersi da un focus group svolto in SDA Bocconi sulla velocità aziendale, e quindi sulla velocità dei processi aziendali, porta a evidenziare i seguenti aspetti (Pozzoli, 2012). I processi sui quali le aziende ripongono maggiore attenzione in termini di miglioramento della velocità sono quelli client-facing e quelli ad alta intensità documentale. Sui primi esiste una esplicita richiesta di maggiore velocità e livello di servizio sia dall’interno dell’azienda, sia dal cliente finale stesso; sui secondi, invece, che spesso sono processi interni, esiste una forte consapevolezza interna all’azienda che la presenza di documentazione cartacea è elemento di rallentamento del processo, e che una volta rimosso può produrre benefici che vanno oltre la dematerializzazione arrivando fino al miglioramento della qualità interna, del prodotto e del servizio al cliente finale. In tutti i progetti di miglioramento e di velocità di processo si parla di ICT. Questo dimostra come non sia possibile oggi modificare le modalità operative senza implementare l’ICT. Però, l’ICT viene letta sotto diversi aspetti: a. come facilitatore, ovvero come strumento per automatizzare il processo, per migliorare le informazioni a disposizione su un determinato processo (es. previsione della domanda), per controllare il processo, etc.; b. come ostacolo, ovvero come elemento causa di scarsa integrazione tra attività svolte da diverse unità organizzative (es. a causa della disomogeneità di sistemi informativi spesso utilizzati dalle diverse unità coinvolte in un processo aziendale); c. come repository di conoscenza sul funzionamento delle business operation (es. Zegna che utilizza l’ICT come leva fondamentale per racchiudere la conoscenza implicita di prodotto moda). ©2011 SDA Bocconi – Forum Eccellenza Operativa. © 2012 Divisione Ricerche “Claudio Demattè” 17 SAP Italia 2.3 La velocità di reazione a eventi inattesi Crisi, instabilità, interdipendenza, incertezza e complessità sono le parole chiave che caratterizzano il contesto attuale: di conseguenza, la capacità dei nostri sistemi, intesi come paesi, aziende e individui, di assorbire “traumi” di vario genere e di adattarsi al nuovo contesto e ri-organizzarsi velocemente assume un’importanza enorme. L’espressione “Resilienza” è definita come l’abilità di “reagire o ri-adattarsi facilmente e velocemente a eventi inattesi, spesso negativi”. La resilienza può significare la “velocità di ripristino della normalità, dopo un evento traumatico”, oppure l’ampiezza del “trauma” che può essere assorbito dal sistema in quanto tale senza generare impatti negativi sull’operatività, spesso affrontato con la “ridondanza” delle risorse (D’Amato, 2012). Il classico esempio che viene citato quando si parla di “resilienza” in ambito supply chain è relativo all’incendio avvenuto nella fabbrica di semiconduttori della Philips in New Mexico, nel 2000. A causa dell’incendio, Philips comunica un ritardo di una settimana nella consegna dei suoi prodotti a due dei suoi maggiori clienti, Nokia e LM Ericsson. Nokia, immediatamente, condivide la notizia del ritardo all’interno della sua organizzazione, 18 SDA Bocconi School of Management comprende l’eventuale impatto del ritardo e della mancata fornitura dei componenti sul suo business e si adopera per cercare e acquisire al più presto fonti alternative per l’approvvigionamento dei componenti e per evitare di subire il ritardo, che si rivelerà molto più lungo del previsto. Per Ericsson, si tratta di un normale ritardo di una settimana, la notizia rimane nell’ambito della funzione acquisti e, quando l’azienda realizza la gravità del problema, è troppo tardi per porvi rimedio. La “mappatura delle vulnerabilità”è il primo passo verso un’azienda “resiliente”. Il secondo è di individuare le azioni che possono ridurre la probabilità che l’evento di rischio si verifichi oppure quelle che possono mitigare l’impatto dell’evento di rischio sull’operatività e sulle performance aziendali. Tutte le aziende hanno generalmente procedure strutturate e organizzate di “Disaster Recovery” per i sistemi IT, per le comunicazioni, per i sistemi produttivi o logistici. Poche aziende hanno sistemi decisionali basati su tecnologie di BI in grado di “anticipare” e di migliorare la capacità di “prevedere” gli eventi inattesi della concorrenza e della domanda di mercato, dei prezzi delle materie prime, della fuoriuscita di risorse umane chiave per l’azienda, © 2012 Divisione Ricerche “Claudio Demattè” SDA Bocconi School of Management etc., e di essere in grado di sviluppare scenari alternativi per far fronte velocemente ad ogni situazione. L’introduzione di sistemi di Alerting tempestivi, basati su tecnologie di BI, impostati su indici e misure significative di performance di tipo financial (es. margini operativi, fatturato) o non financial (es. produttività, customer retention, online reputation) può contribuire a ridurre fortemente la capacità di rilevare i “fuori norma”, le eccezioni, le situazioni anomale o trend che possono causare conseguenze negative se non gestite, se non sono attivate contromisure in tempi brevi. La determinazione dei “range” entro cui indici e misure possono essere considerate in norma da sistemi informatici non è facile, soprattutto in tempi turbolenti e dinamici, ma la continua rilevazione di queste misure e indici può aiutare a migliorare significativamente (“continuous organizational learning”) la propria capacità di stabilire i range numerici da considerare regolari, i limiti di attenzione o gli intervalli di criticità. Il Gruppo Zegna ha la capacità di rilocalizzare in poche ore gli uffici di sedi territoriali esposte a rischi di SAP Italia riallocando e spostando in tempo quasi reale le consegne tra i paesi che hanno avuto una domanda di prodotti inferiore alle previsioni verso quelli che hanno avuto una domanda superiore, nonostante le grandi distanze, grazie alla velocità e all’efficacia delle operations, alla velocità di trasmissione e condivisione delle informazioni e al supporto delle tecnologie IT. Anche l’esperienza di Sky sottolinea come dotarsi di sistemi agili, scalabili e ridondanti sia una necessità per essere velocemente reattivi ad aumenti e cambiamenti rapidi della domanda, ma anche come, spesso, il grado di controllo influisca sulla velocità di reazione: infatti l’azienda è in grado di gestire con efficacia e velocità le attività gestite internamente mentre riscontra maggiori difficoltà quando deve intervenire su attività date in outsourcing, a causa della complessità dei procedimenti di escalation con il fornitore. La ridondanza delle risorse ricercata con l’esternalizzazione di attività e processi, spesso si scontra con la rigidità contrattuale e i modelli di economicità dei fornitori. catastrofi naturali, grazie a sistemi e basi dati centralizzati e a reti di comunicazione adeguate; altresì è in grado di rispondere a cambiamenti inattesi della domanda tra diversi paesi, © 2012 Divisione Ricerche “Claudio Demattè” 19 in possibilità, grazie all’IT, di poter istantaneamente rilevare un cambiamento aziendale o di contesto competitivo e poterlo affrontare e gestire senza ritardi nel modo più efficace possibile. Sicuramente molto è stato fatto verso questa direzione ma molto deve essere ancora fatto. Come introdotto nel paragrafo 2 la velocità è un fattore determinante dell’agire aziendale e l’IT ricopre un ruolo sempre Information Technology hanno un impatto determinante sulle prestazioni delle aziende e sulla loro capacità di essere profittevoli. L’IT, infatti, come è noto, permette alle aziende di semplificare e velocizzare i propri processi operativi core e non ma consente, soprattutto, alle aziende di migliorare costantemente i propri processi di analisi, comprensione dei più determinante nel suo raggiungimento. Questo però comporta l’implementazione di soluzioni sempre più flessibili, che lascino liberi gli utenti di svolgere le proprie attività di analisi seguendo i propri percorsi logici, cognitivi e associativi che non sempre possono essere preventivamente definiti e strutturati. Allo stesso tempo queste soluzioni devono consentire fenomeni aziendali più rilevanti, di previsione, valutazione e presa della decisione. Oggi si inizia a intravedere la l’accesso all’intero patrimonio dei dati aziendali senza alcuna necessità di elaborazioni preparatorie (Estrazione, 3 Le tecnologie In-Memory: elementi distintivi e di innovazione Da sempre, le innovazioni Processori Multi-core Riduzione dei costi della memoria Elaborazione parallela Database a colonne 20 Tecnologie InMemory Memorie a 64 bit © 2012 Divisione Ricerche “Claudio Demattè” SDA Bocconi School of Management Trasformazione e Caricamento) che migliorano le prestazioni tecniche di questi sistemi ma limitano gli ambiti di azione e le possibilità di navigazione degli utenti. Gli sviluppi in campo tecnologico, soprattutto hardware, stanno mettendo le fondamenta perché lo scenario prima descritto si concretizzi in tempi brevi. Le tecnologie InMemory rappresentano sicuramente un passo determinante in questa direzione e il superamento di alcuni limiti imposti dalle tecnologie precedenti, come ad esempio la netta separazione tra ambiente transazionale e di Business Intelligence che, sul fronte tecnico, è dovuta solo ad esigenze prestazionali. Le tecnologie In-Memory, infatti, coniugano le ultime innovazioni, come © 2012 Divisione Ricerche “Claudio Demattè” SAP Italia la possibilità di utilizzare architetture hardware multiprocessore e la possibilità di caricare grandi moli di dati in memoria centrale, per abilitare un circolo virtuoso e interattivo tra l’analisi dei dati in tempo reale, le attività previsionali dei fenomeni aziendali e di analisi degli scenari, e la presa di decisione tempestiva, senza ritardi dovuti principalmente alla non immediata accessibilità ai dati necessari. In particolare, le tecnologie InMemory combinano innovazioni hardware (blade servers, architetture multiprocessore e capacità di memoria di terabytes) e software (In-Memory database). Le prime negli ultimi anni hanno reso possibile ridurre se non superare completamente alcuni limiti dei sistemi 21 SAP Italia SDA Bocconi School of Management Con la velocità di SAP HANA (SAP High-Performance Analytics Appliance) possibilità prima impensabili. SAP ha sviluppato soluzioni In-Memory che soddisfano specificatamente l'esigenza di analizzare elevati volumi di dati riducendo al contempo i costi IT grazie all’introduzione di SAP HANA (SAP High-Performance Analytic Appliance ), un'appliance In-Memory flessibile, multifunzionale e compatibile con qualsiasi fonte di dati, che abbina componenti software SAP ottimizzati per l'hardware fornito e distribuito dai principali hardware vendor. SAP HANA consente alle aziende di analizzare informazioni di business basate su elevati volumi di dati di dettaglio man mano che questi si sviluppano. Le organizzazioni possono esplorare ed analizzare immediatamente tutti i loro dati transazionali e analitici da praticamente qualsiasi fonte di dati in tempo reale. I dati operativi vengono acquisiti nella memoria mentre si verifica una determinata transazione e, grazie a viste flessibili, le informazioni analitiche sono accessibili ad una velocità prima impensabile. Dati esterni strutturati e non strutturati possono essere aggiunti ai modelli analitici per estendere la capacità di analisi all'interno e all'esterno dell'organizzazione. Ciò si traduce in: informazioni reali e una migliore e più rapida capacità decisionale, una collaborazione immediata tra le diverse strutture aziendali, nuove applicazioni innovative che abbinano transazioni basate su un elevato volume di informazioni, a funzionalità analitiche, miglioramento dei processi esistenti o creazione di nuovi processi in qualsiasi ambito, dalla pianificazione, alla previsione, all'ottimizzazione dei prezzi, accelerazione delle performance aziendali, riduzione del TCO grazie a un minor impiego di hardware, manutenzione e controlli. © 2012 SAP AG. Tutti i diritti riservati di accesso ai dati come i tempi di accesso alle unità di memoria che contengono i dati (CPU register, DRAM, NAND Flash, etc.), la velocità di elaborazione e la capacità delle unità di storage utilizzate. Le seconde, invece, mirano a una diversa organizzazione e L’elemento più innovativo e disruptive rispetto alle tecnologie tradizionali è che l’elaborazione dei dati avviene direttamente a livello del database e non nel livello applicativo. Solo i risultati delle query sono trasferiti per essere visualizzati dagli utenti. Il gestione dei dati all’interno del database c.d. In-Memory (IMDB) che risiede direttamente in memoria centrale. cuore delle quindi il Computing. integrato di consente di 22 tecnologie In-Memory è motore di In-Memory Esso è uno strumento calcolo e di database che elaborare grandi quantità © 2012 Divisione Ricerche “Claudio Demattè” SDA Bocconi School of Management di dati in tempo reale nella memoria centrale, per fornire istantaneamente i risultati di analisi ed elaborazioni. Al pari di un comune database, il motore di In-Memory Computing supporta gli standard di settore, come SQL e MDX, ma include anche un motore per il calcolo ad alte prestazioni che integra il supporto del linguaggio procedurale direttamente nel kernel del database. Tale approccio elimina l’esigenza di leggere i dati dal database, elaborarli e quindi riscriverli nuovamente nel database. Il motore di In-Memory Computing propone quindi significative innovazioni SAP Italia tecniche come l’utilizzo del nucleo della CPU e la massiccia elaborazione parallela. In particolare la velocità, la scalabilità e la capacità di compressione dei dati sono i suoi veri punti di forza tecnici. La Velocità di elaborazione è conseguenza della capacità di memorizzare i dati per colonne al fine di raggiungere elevate performance nelle operazioni di analisi, classificazione e aggregazione alla base delle BI Analytics e dei BI Tool. Infatti, esso può esaminare 2 milioni di record al milionesimo di secondo per core e oltre 10 milioni di aggregazioni Le tecnologie In-Memory nella loro applicazione in azienda possono seguire approcci differenti: Modello Associativo. Esso carica e memorizza tutti i dati in un modello dati “associativo”utilizzato a livello di memoria centrale. Le associazioni sono basate sulle relazioni esistenti tra diversi dati. Questo permette agli utenti di interrogare tutti i dati considerati rilevanti senza gerarchie di dati o percorsi di analisi predefiniti. In questo modo l’utente non è limitato a navigare e interrogare i dati secondo uno schema preordinato. In-Memory OLAP. Esso opera primariamente caricando i dati in memoria centrale e permettendo l’elaborazione di query complesse on demand e di incroci multipli di dimensioni di analisi dei dati con tempi di risposta ridotti. Excel In-Memory Add-In. Esso permette agli utenti di caricare grandi moli di dati in Excel. Una volta che i dati sono in Excel, le relazioni tra i dati sono automaticamente definite tra i diversi dataset. Questo permette agli utenti di svolgere numerose attività (on the fly sorting, filtering, slicing and dicing, etc.) superando molti dei limiti tecnici di Excel. Questo approccio è disegnato per incrementare l’autonomia degli utenti e le forme self service di accesso ed elaborazione dei dati. In-Memory Accelerator. Esso è studiato per incrementare le performance di analisi all’interno di un esistente ambiente di Business Intelligence. Dopo aver caricato i dati all’interno della memoria centrale, fa leva su un sistema di indici precostruiti per velocizzare i tempi di risposta del sistema. Questo approccio non vincola la navigazione e le analisi dei dati a strutture particolari o gerarchie. In-Memory VIsual Analytics. Esso combina un In-Memory Database con i tool di “visual data exploration” che permettono agli utenti di accedere velocemente ai dati, interrogarli e raccogliere i risultati in report, sfruttando un ambiente grafico e interattivo. © 2012 Divisione Ricerche “Claudio Demattè” 23 SAP Italia SDA Bocconi School of Management complesse calcolate dinamicamente al secondo per core. Sono queste le performance che possono trasformare i processi aziendali operativi e di produzione delle informazioni, di cui si è parlato nei paragrafi precedenti: ad esempio, un’azienda del settore dei beni di largo consumo, ha implementato uno scenario reale su SAP HANA® che dimostra la capacità di eseguire liberamente query complesse La Scalabilità, invece, è garantita dall’uso di un’architettura multi-core e dal ricorso a parallelizzazioni e partizioni dinamiche, per carichi di lavoro sia OLAP (OnLine Analytical Processing) sia OLTP (OnLine Transaction Processing), attraverso sofisticati algoritmi che lavorano in memoria cache. Di conseguenza le performance scalano in modo lineare non solo sui server blade, ma anche sul su oltre 450 miliardi di record in pochi secondi. Anche le performance di aggiornamento, inserimento e caricamento dati mostrano un significativo miglioramento rispetto ai sistemi tradizionali, dal momento che nessun dato aggregato o indicizzato è mantenuto e tutte le operazioni a runtime sono eseguite In-Memory, a eccezione dell’attività di logging. numero di core per blade. 24 La Compressione, infine, è possibile grazie all’utilizzo di avanzati algoritmi di compressione e strutture dati che minimizzano l’occupazione della memoria richiesta dal sistema, mantenendo un completo supporto alla fase di OLTP workload. © 2012 Divisione Ricerche “Claudio Demattè” Velocità dell’innovazione. 4 Gli ambiti di applicazione delle tecnologie InMemory per la Velocità aziendale: alcuni casi internazionali Le esperienze in questo ambito sono per ora più rare, ma non per questo meno interessanti. Due le categorie di innovazione emergenti: 1. casi di Co-innovation con partner di SAP, di diversa tipologia: a. Deloitte Consulting. Sperimentazione, sviluppo e pacchettizzazione di un nuovo software dedicato al Dynamic Cash Management, all’interno delle soluzioni di Financial Planning di prossima generazione. b. Cisco. Sviluppo di un nuovo prodotto che integri SAP HANA sui Cisco Unified Computing Systems. c. Intel. Sviluppo di una nuova Le tecnologie In-Memory sono enabler determinanti per incrementare la velocità in azienda. Ciò emerge chiaramente dall’analisi delle esperienze esistenti di implementazione di SAP HANA e dalla conseguente mappatura dei casi aziendali all’interno del modello della Velocità aziendale nel paragrafo 2. Innovazione Velocità Processi aziendali Reazione a eventi inattesi © 2012 Divisione Ricerche “Claudio Demattè” • Co-Innovation • Innovazione dei prodotti e servizi • Processi operativi transazionali • Processi di controllo, monitoring, forecast, performance management • Alerting, predictive, simulation, scenario analysis 25 SAP Italia SDA Bocconi School of Management CoInnovation • Deloitte (Consulting) • Cisco (ICT) • Intel(ICT) Innovazione Innovazione dei prodotti e servizi versione di SAP HANA tipo operativo che analizzano dati compatibile con i processori Intel multi-core. elementari e restituiscono risultati in tempi molto veloci idonei a svolgere e modificare processi di produzione, di sperimentazione, di intervento sul campo, di customer service, etc.: a. Medidata, azienda operante nei servizi informativi di tipo clinico. 2. casi di innovazione dei prodotti o dei servizi core business dei clienti di SAP: a. Charitè, azienda US operante nell’Healthcare. La velocità di analisi dei dati clinici ottenuta operativi, L’utilizzo di SAP HANA e di RealTime Analytics ha velocizzato in modo radicale i processi dei test clinici con i clienti, i medici e i centri di ricerca migliorando il livello dei servizi di patient care. b. Nomura, istituto di ricerche. La velocità ottenuta nell’analisi dei dati del traffico di Tokio ha transazionali, in termini sia di velocità di esecuzione, sia di velocità di cambiamento, abilitata soprattutto da applicazioni di Business Intelligence RealTime di consentito di incrementare la capacità di azione e di invio dei messaggi pubblici per migliorare la fluidità e la sicurezza della circolazione stradale cittadina. con SAP HANA ha consentito di creare nuovi trattamenti sanitari e nuovi servizi di patient care più efficaci. Velocità dei processi aziendali. Le esperienze sono numerose e molto varie. Le categorie individuate sono le seguenti: 1. velocità 26 • Charitè (Healthcare) dei Processi © 2012 Divisione Ricerche “Claudio Demattè” SDA Bocconi School of Management SAP Italia c. Bosch&Siemens, gruppo operante nel settore delle tecnologie avanzate. SAP HANA è stata impiegata in modo estensivo per velocizzare le simulazioni di redditività in più aree aziendali, dal finance alle vendite ai servizi interni, al fine di prendere decisioni di miglioramento dei processi operativi interessati. telecomunicazione. SAP HANA ha consentito di gestire milioni di interazioni e di messaggi giornalieri ai clienti per renderli sempre più personalizzati alle loro esigenze, sia come contenuti promozionali, sia come informazioni sui loro profili di utilizzo. f. NongFu Spring, azienda di beni di largo consumo, CPG. SAP d. Groupe Casino, azienda di retail. SAP HANA ha velocizzato il processo di gestione degli ordini online dei clienti e reso possibile un livello di servizio adeguato ai clienti che possono ritirare i propri prodotti ordinati entro due ore presso un outlet dedicato. e. T-Mobile, azienda di HANA ha sincronizzato in tempo reale le velocità di esecuzione dei processi operativi di promozione e dei processi di analisi di marketing. g. Medtronic, azienda di apparecchiature mediche. SAP HANA ha permesso di analizzare grandi quantità di dati non strutturati provenienti dalla Processi Operativi e transazionali Processi aziendali Processi di controllo, monitoring, forecast, performance management © 2012 Divisione Ricerche “Claudio Demattè” • Medidata (healthcare) • Nomura research institute (servizi) • Centrica (utility) • Surgutneftegas (energy) • Bosch&Siemens (high-tech) • Groupe Casino (retail) • T-Mobile (Telco) • Federal Mogul (automotive) • NongFu Spring (CPG) • Medtronic (Healthcare) • Cisco (ICT) • Adobe (ICT) • BASF (chimica) • P&G (CPG) • Infosys (ICT) • AOK (insurance) • Colgate-Palmolive (CPG) • Provimi (CPG) • Lenovo (ICT) 27 SAP Italia SDA Bocconi School of Management gestione globale dei reclami e di fornire in tempi brevi reporting mirati di vendita ai venditori affinché potessero spendere più tempo in visita dai clienti/medici. h. Cisco, azienda ICT. SAP HANA è stata applicata nell’elaborazione di oltre 700 milioni di record gestiti da sistemi non SAP, finalizzata a produrre in tempo i. j. reale reporting operative selfservice per la forza vendita. Federal Mogul, azienda dell’automotive. SAP HANA applicata ai processi di logistica ha generato rilevanti miglioramenti della gestione degli magazzini. Centrica, azienda utility. L’analisi veloce delle grandi quantità di dati provenienti dagli strumenti di smart metering ha permesso di produrre più efficienti programmi di risparmio energetico personalizzato per i clienti. k. Adobe, azienda ICT. SAP HANA ha consentito di analizzare i milioni di dati strutturati di vendita e i milioni di dati non strutturati del supporto prodotto per analizzare la pirateria del software Adobe, per monitorare il fenomeno e 28 l. lanciare azioni preventive e di recupero di ricavi persi. Surgutneftegas, azienda energetica. SAP HANA a supporto di applicazioni di RealTime analysis dei dati generati dai processi core business di inventory management e di material movement. 2. Processi di controllo direzionale, forecast, Performance management, processi di analisi di dati più tipicamente rientranti nell’ambito della BI tradizionale: a. BASF, azienda chimica. SAP HANA integrate con il modulo CO-PA ha velocizzato notevolmente le analisi di redditività di prodotto e di cliente. b. P&G, azienda di beni di largo consumo, CPG. SAP HANA è stata applicata alla produzione in tempo reale del Conto economico gestionale per BU. c. Infosys, azienda ICT. SAP HANA è stata impiegata per ottenere in tempi molto più veloci le simulazioni dei margini a livello aziendale, di centro di profitto e di progetto cliente. d. AOK, azienda assicurativa. SAP HANA ha permesso di analizzare con velocità coerente milioni di casi di ospedalizzazione al fine © 2012 Divisione Ricerche “Claudio Demattè” SDA Bocconi School of Management SAP Italia sia di migliorare la patient care, sia di mantenere la redditività attuale dei servizi di assistenza sanitaria erogati. e. Colgate-Palmolive, azienda di beni di largo consumo, CPG. SAP HANA è stata impiegata nel velocizzare e rendere accettabili come tempi di risposta le analisi di profittabilità dei brand e dei clienti della grande distribuzione. f. Provimi, azienda di beni del largo consumo, CPG. SAP HANA for business insights. g. Lenovo, azienda ICT. SAP HANA è stata applicata alle analisi dei contratti dei clienti al fine di rilevare comportamenti e “best e worst” practice da segnalare. Velocità di reazione a eventi inattesi. I casi di impiego di SAP HANA in questo ambito sono minori e spesso embedded in casi precedenti, soprattutto nell’impiego di SAP HANA a supporto della BI RealTime e operativa, in applicazioni di Alerting (per ridurre il Reazione a eventi inattesi © 2012 Divisione Ricerche “Claudio Demattè” tempo di reazione con segnalazioni immediate, in tempo reale dell’evento inatteso) o di predictive analysis e di simulazioni di scenari (per anticipare e prevedere eventuali eventi inattesi): a. Booan, azienda di beni di largo consumo. SAP HANA elabora grandi quantità di dati di vendita, di acquisto e di logistica e produce dashboard in tempo reale per i decisori aziendali coinvolti da questi processi. b. Dabor, azienda di beni di largo consumo. SAP HANA elabora grandi quantità di dati di vendita, di acquisto e di logistica e produce dashboard in tempo reale per i decisori aziendali coinvolti da questi processi. c. Nomura research institute. L’analisi in tempo reale dei dati di traffico nella città di Tokio può consentire di gestire in tempo reale eventuali imprevisti eccezionali sulla circolazione stradale. d. Taiko Palm-Oleo, azienda chimica. SAP HANA è stata impiegata per realizzare un sistema di Alerting che Alerting, predictive, simulation, scenario analysis • Booan (CPG) • Dabor (CPG) • Nomura research institute • Taiko Palm-Oleo (chimica) • Hilti (engineering and construction equipments) 29 SAP Italia monitora una serie di indicatori di redditività e induce azioni di intervento in caso di fuori range. e. Hilti, azienda di engineering e construction equipment. SAP HANA 30 SDA Bocconi School of Management ha velocizzato le analisi dei dati di vendita e di cliente per poter generare reazioni più veloci nel lavoro sul campo con I clienti. © 2012 Divisione Ricerche “Claudio Demattè” L’obiettivo di questo paragrafo è quello di delineare i possibili benefici supporto della velocità aziendale, quale fattore rilevante di competizione nel contesto economico del nuovo millennio, e scomponibile nelle sue tre determinanti della velocità dell’innovazione (di prodotto/servizio), velocità di esecuzione dei processi aziendali e velocità di reazione ad eventi inattesi. Queste tre tipologie di velocità aziendale sono per definizione i primi benefici in termini di valore dell’In-Memory in una prospettiva trasversale e più completa, sia come aziendale dell’In-Memory, descritti nel paragrafo 2 e 4. 5 I benefici e il valore aziendale dell’In-Memory benefici di performance del management aziendale, sia come benefici più di tipo IT. Le tecnologie InMemory, per quanto detto nel paragrafo precedente, possono offrire molteplici opportunità alle aziende migliorando e modificando il loro modo di svolgere i processi aziendali e le decisioni che quotidianamente sono chiamate a prendere per fronteggiare la complessità e variabilità del contesto competitivo in cui operano. Queste tecnologie offrono dei vantaggi anche da un punto di vista meramente tecnico IT. Nel prosieguo verranno richiamati tutti gli aspetti di particolare rilevanza per le aziende che rappresentano effettivamente un punto di discontinuità con il passato. 5.1 La velocità aziendale Nel paragrafo precedente sono stati inquadrati i possibili contributi di SAP HANA, come tecnologia In-Memory, a © 2012 Divisione Ricerche “Claudio Demattè” 5.2 L’informazione di ogni tipo, in ogni luogo, in ogni tempo Le possibilità offerte dalla ricerca nel web hanno mostrato cosa significa ricercare e analizzare grandi volumi di dati in tempo reale e soprattutto hanno evidenziato i vantaggi da essa derivanti per le aziende. Naturale diventa quindi ricercare e richiedere alle applicazioni aziendali e ai database aziendali funzionalità simili. Sfortunatamente ciò è stato possibile solo in pochi casi, nonostante il fatto che alcuni problemi, come la consistenza e l’attendibilità dei dati, sia molto più gestibile nei database aziendali che non nel web dove la qualità e l’affidabilità dei dati è spesso molto discutibile. Ad esempio la ricerca di informazioni da parte di un operatore di call center dei prodotti aziendali che rispondono meglio a una richiesta pervenuta, raramente avviene in tempi coerenti col fatto di avere un 31 SAP Italia SDA Bocconi School of Management cliente o un potenziale cliente al telefono o in chat: nella migliore delle ipotesi la ricerca è possibile all’interno di un DB oppure all’interno di un DB virtuale federato progettato ad hoc, ma con tempi di risposta spesso non accettabili per poter dare una risposta in tempo reale. Oppure in un processo decisionale manageriale la ricerca di informazioni sugli ordini di riassortimento, sulla disponibilità a motore di ricerca utilizzato e la presentazione dei risultati è fondamentalmente un puro elenco di contenuti di diversi formati ordinati a seconda della rilevanza rispetto alla ricerca fatta, senza alcun tipo di rielaborazione e senza alcuna garanzia di completezza. Alle applicazioni aziendali, invece, non si richiede soltanto la ricerca di dati rilevanti ed esaustivi del fenomeno indagato ma magazzino dei prodotti, sui lotti di produzione in corso da parte dei terzisti, per decidere quale punto vendita servire per primo e con quale livello di servizio, raramente ottiene risposte in un tempo ragionevole (Near RealTime) che consenta di simulare le diverse opzioni possibili e quindi di ottimizzarne la scelta. Il comportamento dei manager anche la loro elaborazione e aggregazione mediante algoritmi più o meno complessi. Questo è, per esempio, quello che fanno molte applicazioni di pianificazione, di previsione, di analisi di scenari, che devono trattare i dati prima di poterli essere presentati all’utente, soprattutto se provenienti da fonti diverse e tra loro eterogenee. cambierebbe certamente se l’informazione aziendale fosse “real time Information” come nel web. L’In-Memory sembra essere un tassello fondamentale nel ravvicinare la realtà della produzione di informazioni in azienda alla metafora della ricerca su Web. Se la velocità è sicuramente un elemento vincente della ricerca di informazioni su web, non altrettanto può essere detto in merito alla completezza dei risultati ottenuti, che rappresenta invece una caratteristica irrinunciabile dei dati provenienti dalle applicazioni aziendali e dalle fonti di dati interne. La ricerca sul web, infatti, si basa principalmente sul matching “testuale e semantico” tra il dato ricercato e i set di dati indicizzati dal 32 5.3 Il superamento della distinzione tra sistemi informativi transazionali e sistemi di BI La difficoltà di operare secondo i tempi del web è determinata da molteplici fattori; a esempio i sistemi transazionali sono separati dai sistemi di BI al fine di poter garantire sia la capacità di analizzare i dati aziendali, © 2012 Divisione Ricerche “Claudio Demattè” SDA Bocconi School of Management SAP Italia sia adeguati tempi di risposta da parte di sistemi specializzati a svolgere attività diverse (eseguire azioni, produrre informazioni). Inoltre solo una parte dei dati aziendali è caricata nei sistemi di BI, poiché generalmente si procede a una aggregazione dei dati transazionali che riduce la granularità e quindi il loro potenziale informativo. Questa operazione è molto critica perché limita quindi le possibilità di già presenti nel sistema, e le caratteristiche delle Analytics, che come loro dovrebbero elaborare grandi volumi di dati per analizzare la situazione aziendale corrente, scoprire eventi o andamenti non previsti e scegliere le opportune azioni. Queste applicazioni potrebbero, per esempio, fornire un valore aggiunto sensibile all’azione aziendale se potessero abilitare gli utenti alla conduzione di analisi successive e la produzione di report personalizzati. Il dover caricare i dati dai sistemi transazionali ai sistemi di BI seguendo i necessari step di data cleaning ed elaborazione influenza inoltre la durata dell’intervallo di tempo che intercorre da quando i dati sono immessi nel sistema transazionale a quando essi sono disponibili per le attività di analisi. Tale intervallo può analisi degli scenari in modalità quasi RealTime e in funzione di fatti quotidiani che cambiano i risultati aziendali. Oggi con le In-Memory ciò è possibile. essere di alcune ore o perfino di giorni. Questo ritardo e separazione ha un impatto rilevante soprattutto sulle performance di quelle applicazioni che dovrebbero avere sia un utilizzo operativo sia direzionale (es. Availableto-Promise, demand planning). Molte sono infatti le applicazioni aziendali che, per rispondere efficacemente alle esigenze degli utenti, dovrebbero coniugare le caratteristiche delle Un’altra caratteristica della ricerca su web è la possibilità di utilizzare un approccio “trial and error” alla ricerca. Infatti, si parte utilizzando delle key words e poi, sulla base dei risultati ottenuti, si procede a un loro affinamento. Allo stesso modo le attività di analisi di un fenomeno aziendale potrebbero seguire questo approccio, a condizione che non ci applicazioni transazionali, che come loro dovrebbero operare su dati operativi aggiornati con l’inserimento manuale di nuovi dati, con la modifica di dati esistenti o con l’utilizzo di dati Per poter utilizzare questo approccio, i tempi di risposta delle applicazioni devono diventare paragonabili ai tempi di reazione e © 2012 Divisione Ricerche “Claudio Demattè” 5.4 Miglioramento della catena performance tecnicheperformance aziendali: le analisi alla “velocità del pensiero” siano tempi di attesa troppo lunghi. 33 SAP Italia SDA Bocconi School of Management comprensione del cervello umano, in altre parole devono essere comparabili con la “velocità del pensiero”. Se ciò non avviene, gli utenti percepiscono il sistema lento e sono portati a “ingannare” il tempo di attesa iniziando altre attività che deviano la loro attenzione distraendola dall’attività principale. Questa defocalizzazione, apparentemente innocua, ha invece degli effetti considerevoli sulla disporre di tutte le risorse necessarie nel momento in cui sono richieste, c.d. “real time information”. Ciò significa che gli utenti possono accedere all’intero patrimonio dati aziendale senza vincoli tecnici e senza la necessità di elaborazioni o trattamenti preparatori sui dati. Qualsiasi tipo di elaborazione è fatta quindi “on the fly”, fornendo la massima flessibilità e libertà di accesso, utilizzo e analisi dei produttività degli utenti e sulla loro capacità di raggiungere il risultato desiderato in termini anche qualitativi. La concentrazione, infatti, permette di ottimizzare l’analisi utilizzando i risultati raggiunti nel percorso di indagine intrapreso e di raggiungere gradi di approfondimento elevati in tempi brevi. La possibilità di avere applicazioni che operano alla “velocità dati aziendali agli utenti, superando definitivamente la divisione concettuale e fisica tra dati per le transazioni e per le informazioni manageriali. del pensiero” ha quindi l’obiettivo di aiutare gli utenti a concentrarsi su una sola attività e a non sprecare energie passando da un’attività all’altra. Inoltre la riduzione dei tempi di risposta e di elaborazione sicuramente rende molto più coerente queste applicazioni con l’utilizzo dei device mobili sempre più diffusi e utilizzati in ambito aziendale. Il confronto fatto tra ricerca web e dei dati aziendali. Fino a questo momento i forti limiti alla velocità di analisi erano dovuti principalmente ai tempi di accesso alle unità di memorizzazione e alla banda dei canali di comunicazione tra di esse e le CPU utilizzati per scambiarsi ed elaborare grandi volumi di dati. Per limitare il loro effetto sulle prestazioni delle applicazioni, tradizionalmente le applicazioni aziendali oggi sta diventando sempre meno futuribile grazie alle tecnologie In-Memory. Il loro fondamento, infatti, come visto nel capitolo precedente, è la possibilità di aziende avviavano importanti attività di ottimizzazione dei database e delle procedure di accesso. Le tecnologie InMemory, invece, come già presentato nel paragrafo 3, superano questi 34 Si è già detto che il più rilevante beneficio derivante dall’implementazione delle tecnologie In-Memory risiede nell’impressionante incremento delle performance di analisi © 2012 Divisione Ricerche “Claudio Demattè” SDA Bocconi School of Management problemi portando tutti i dati e il carico di lavoro nella memoria centrale. In questo modo è possibile abbattere definitivamente il principale collo di bottiglia delle tecnologie tradizionali: i tempi di accesso all’hard-disk e i tempi richiesti per lo svolgimento di attività di Input/Output. Dare agli utenti la possibilità di interagire con dati In-Memory, piuttosto che con dati residenti in un tradizionale database o in un Datawarehouse, rende le loro attività di analisi significativamente più veloci ed esplorative. La velocità nel comprendere un fenomeno aziendale e nel prendere la conseguente decisione migliore sono, come è noto, prerequisiti irrinunciabili per poter migliorare costantemente le proprie performance aziendali. 5.5 Libertà di analisi I sistemi tradizionali di analisi forniscono principalmente risposte a quesiti predefiniti o comunque circoscritti ad ambiti pensati, organizzati e strutturati a priori. Generalmente queste attività preliminari degli ambiti di analisi includono anche alcune attività di prelavorazione dei dati in termini di pulizia, selezione e aggregazione; in particolare queste ultime due attività impattano fortemente sulle possibilità successive di analisi che possono essere svolte © 2012 Divisione Ricerche “Claudio Demattè” SAP Italia dagli utenti. Infatti, la costruzione di questi ambienti di analisi porta a delimitare il perimetro dei dati oggetto di analisi, a definire la cardinalità dei dati considerati e a costruire ipotetici percorsi di analisi. I sistemi che utilizzano tecnologie In-Memory, invece, mettono a disposizione la totalità dei dati aziendali riguardanti i vari domini (venite, ordini, personale, costi, acquisti, ecc.), non loro sottoinsiemi, permettono agli utenti di navigare tra i dati in estrema libertà, abilitando analisi che assecondano molto di più il percorso logico e associativo degli utenti, che possono adottare approcci di tipo “Managing by walking around” all’interno dei dati e delle informazioni aziendali. In questo modo gli utenti possono, sfruttando la velocità di esecuzione delle query, accedere autonomamente ai dati per loro più rilevanti, aggregarli e incrociarli senza vincoli di granularità o numerosità e quindi raggiungere livelli di analisi più coerenti con le loro necessità. 5.6 Minor Time-to-Delivery Le tecnologie In-Memory permettono una maggiore velocità implementativa degli tool e delle applicazioni di BI, grazie al fatto che a differenza delle tecnologie tradizionali non richiedono attività di setup e di ottimizzazione dei dati, non si avvalgono di modelli di dati strutturati 35 SAP Italia SDA Bocconi School of Management che in genere richiedono a priori di avere le idee molto chiare sulle dimensioni e le gerarchie di analisi dei dati e che generano attività specialistiche molto “time-consuming”. Nuovamente la riduzione del “timeto-deliver” si traduce in velocità di risposta (dei progetti applicativi) ai nuovi fabbisogni informativi espressi dal business, e quindi, in ultima analisi, in velocità aziendale. Intelligence. Questo percorso si avvia con l’utilizzo delle funzionalità di base della BI e mira soprattutto a “Capire e a dare un senso al passato e ai risultati aziendali”, per poi via via rivolgersi ad “Anticipare i problemi e a guidare il business” con un maggior orientamento al supporto decisionale, a “migliorare i processi aziendali chiave La velocità di esecuzione propria delle tecnologie In-Memory e la maggior libertà di analisi in modelli di dati non strutturati, possono determinare a loro volta un maggior effetto esperienza velocizzando il percorso di conseguimento di risultati dell’azienda, soprattutto dei processi che si interfacciano con i clienti e i fornitori”, con meccanismi c.d. di “closed loop” che consentono di utilizzare la maggior ricchezza di informazioni disponibili anche per “alimentare” i processi operativi aziendali, e infine, all’apice della conoscenza generata dalla BI, generare Creatività Manageriale, in termini di “nuovi prodotti-servizi” o di aziendali a valore crescente, ottenibili dalla sperimentazione progressiva degli strumenti di Business Intelligence e delle Analytics descritti nella Piramide di esperienza della Business “cambiamento del Business Model dell’azienda”. In funzione del livello di maturità, cioè del grado di sofisticazione delle attività di Business Intelligence, è possibile rispondere a 5.7 Maggiore esperienza” “effetto Creatività sul mercato e nei Business Model Nuovi Prodotti e Servizi Migliorare i processi aziendali e le relazioni nella rete del valore “Anticipare i problemi e guidare il Business” nel breve e medio periodo “Capire e dare un senso al Business, al passato” 36 © 2012 Divisione Ricerche “Claudio Demattè” SDA Bocconi School of Management SAP Italia La piramide di esperienza della Business Intelligence, emersa dalle ricerche condotte da SDA Bocconi sulla diffusione della Business Intelligence in Italia dalla metà degli anni ’90 in poi, descrive come la maggior diffusione della BI sia avvenuta partendo dalle funzionalità di base (reporting standard e cruscotti) per poi ampliarsi con l’esperienza sull’analisi Olap, sulle capacità di Query e di reporting ad hoc, fino alle più sofisticate funzionalità di modelling, di simulazione, di predizione, di mining. La diffusione e la stratificazione di queste funzionalità di BI nel tempo comporta modifiche di rilievo delle architetture dei sistemi di BI aziendali, la necessità di disporre di competenze analitiche sempre più diffuse e maggiori, nonché la comprensione che le funzionalità più sofisticate di BI accrescono di molto il valore proprio generato dei sistemi di BI aziendali, ma non sono “per tutti” gli utenti della BI, bensì sono più spesso gestibili da pochi analisti o specialisti di BI portatori di competenze quantitative in parte esclusive. domande via via più evolute che potenzialmente possono far conseguire Vantaggi Competitivi sempre più rilevanti, come evidenzia Davenport (2007). Le tecnologie In-Memory potrebbero quindi contribuire ad “appiattire” molto la “piramide dell’esperienza della BI” e di percorrere più velocemente la “scala dell’Intelligence”, riducendo la complessità e la stratificazione dell’architettura sottostante, riducendo la necessità di sofisticate competenze analitiche e ampliando il numero dei potenziali utenti in grado di sfruttarle al meglio. 5.8 Ottimizzazione dei costi di gestione IT Un altro importante ritorno dell’utilizzo delle tecnologie In-Memory consiste nella riduzione dei costi di gestione IT e quindi dei costi operativi aziendali. Ciò è conseguenza del fatto che i dati aziendali sono memorizzati, nelle applicazioni tradizionali, su hard disk e la ricerca dei dati al loro interno è Competitive Advantage BI Tools BI Analytics Decision Optimization What’s the best that can happen? Predictive Analytics What will happen next? Forecasting What if these trends continue? Statistical models Why is this happening? Alerts What actions are needed? Query/drill down Where exactly is the problem? Ad hoc reports How many, how often, where? Standard reports What happened? Information Degree of Intelligence Insight (adattamento da Davenport , 2007) © 2012 Divisione Ricerche “Claudio Demattè” 37 SAP Italia SDA Bocconi School of Management la maggior voce di costo nell’esecuzione di una query. In aggiunta i sistemi elaborativi spendono la maggior parte del tempo ad aspettare risposte da altri sistemi e questo incide negativamente sulle loro performance. Per migliorare tali prestazioni è necessario utilizzare un ampio numero di hard disk, incrementando, conseguentemente, i costi dell’infrastruttura IT. A tutto ciò si utilizzare motori di analisi (Analytical Platform) molto meno complessi e costosi. somma il fatto che i tradizionali sistemi di analisi e di datawarehouse sono costosi da implementare perché necessitano di lunghi setup e elevate competenze di DBA per migliorarne le prestazioni. Le tecnologie In-Memory, invece, danno la possibilità di analizzare grandi volumi di dati in memoria centrale: esse possono incrementare i costi iniziali, ma sono decisamente più dati, ma i volumi di dati potenzialmente utilizzabili dalle imprese sono destinati semplici da implementare e gestire nei tempi successivi. Di conseguenza la funzione IT non è impegnata in attività altamente time-consuming per migliorare le performance di accesso ai dati, e ciò può ulteriormente ridurre i costi di avvio e di gestione (esercizio e manutenzione ordinaria) dei progetti di BI e Analytics. destinati a crescere; l’architettura InMemory potrebbe abilitare l’accesso ai dati e l’analisi di grandi volumi di dati a costi sensibilmente inferiori. Infatti, la possibilità offerta dalle tecnologie InMemory di caricare i dati in memoria centrale permette agli utenti un accesso istantaneo ai dati con la conseguente creazione di report dinamici in tempo reale. La capacità di accedere rapidamente a grandi volumi Inoltre molti IT vendor sono fermamente convinti che le tecnologie In-Memory siano meno costose di quelle tradizionali, principalmente perché, ad esempio nel caso dei sistemi di Business Intelligence, permettono di 38 5.9 Minor complessità gestione IT di Molte aziende presentano i dati distribuiti in molteplici data mart dipartimentali. I sistemi tradizionali non sono generalmente disegnati per condurre veloci analisi su terabytes di ad aumentare esponenzialmente (si veda il par. 1). Di conseguenza, l’estrazione di dati diventa un’attività sempre più time-consuming e complessa. In questo scenario, se le imprese necessitano di sviluppare un data mart completo, i costi di sviluppo e di gestione dei relativi progetti sono di dati per scopi di analisi senza dover costruire complesse architetture di datawarehousing è uno dei principali vantaggi delle tecnologie In-Memory. © 2012 Divisione Ricerche “Claudio Demattè” SDA Bocconi School of Management L’aggregazione di dati per produrre le sintesi richieste dagli utenti è generalmente non coerente con i tempi di risposta erogati agli utenti stessi; di conseguenza molti datamart sono disegnati in modo da pre calcolare alcuni dati di sintesi attraverso strutturati processi di aggregazione. Tutto ciò, ovviamente, comporta il ricorso a numerosi processi di elaborazione dei dati e SAP Italia Con le tecnologie In-Memory non è necessario procedere all’aggregazione dei dati, visto la considerevole quantità di dati di dettaglio che è possibile caricare e analizzare in memoria centrale. Anche questo beneficio, oltre a semplificare la gestione IT dei sistemi di BI (tool tradizionali o Analytics), ha un impatto di rilevo sulla velocità di esecuzione dei progetti di BI e, in ultima analisi, sulla velocità aziendale. all’ottimizzazione degli algoritmi di aggregazione per migliorare le performance. © 2012 Divisione Ricerche “Claudio Demattè” 39 6 Conclusioni Nel presente lavoro si è visto che la velocità riguarda il tempo e il ritmo delle cose, del lavoro, delle persone, ma la velocità senza controllo, senza finalità, non genera utilità, non genera valore, anche e soprattutto nel campo economico-aziendale. E il controllo oggi è sempre più esercitato da una combinazione di persone e di sistemi informatici che lo supportano. La velocità oggi a disposizione delle aziende si concretizza nella capacità potenziale di ridurre il tempo necessario non solo per l’esecuzione di un’attività, ma anche per la sua finalizzazione, per il cambiamento repentino e “in corsa” dei suoi obiettivi o delle sue relazioni con altre attività, e questa è la vera e rivoluzionaria novità per la gestione d’azienda. Come in tutti i cambiamenti generati dalle tecnologie, anche in questo caso il change management deve azionare leve che riguardano anche le persone, la cultura: le persone, il management aziendale devono saper convivere con la velocità, per poterla 40 sfruttare al meglio e performance incrementali. generare La competizione oggi si gioca soprattutto tra chi è “lento” e chi è “veloce”: veloce nell’innovazione di prodotto/servizio (“time to innovation”), nel diversificarsi a livello geografico, nei prodotti/servizi, veloce nei processi aziendali, veloce nel reagire a eventi imprevisti (“time to market”), e infine veloce nel “time to profit”. Le tecnologie In-Memory, oggi disponibili, possono giocare un ruolo di rilevo in questo scenario di Velocità. Esse coniugano le ultime innovazioni ICT (architetture hardware multiprocessore, la possibilità di caricare grandi moli di dati in memoria centrale a basso costo, un database moto performante), per abilitare un circolo virtuoso e interattivo tra lo svolgimento rapido dei processi operativi aziendali, l’analisi dei dati aziendali in tempo reale e la presa di decisione tempestiva, senza ritardi dovuti principalmente alla non immediata accessibilità ai dati necessari. Le prime esperienze di impiego delle tecnologie In-Memory hanno già evidenziato interessanti benefici e valore aziendale, in termini di velocità aziendale, di informazione eterogenea e ubiqua, di superamento della distinzione tra sistemi informativi © 2012 Divisione Ricerche “Claudio Demattè” SDA Bocconi School of Management transazionali e sistemi di Business Intelligence, di analisi alla “velocità del pensiero” e libere, personalizzate e contestualizzate, di minor “Time-toDelivery” dei dati e delle informazioni stesse, di maggiore “effetto esperienza” nel passare dalle funzionalità di base a quelle più sofisticate della Business Intelligence e Analytics, di ottimizzazione dei costi di gestione IT e di minor complessità di © 2012 Divisione Ricerche “Claudio Demattè” SAP Italia gestione delle architetture applicative dedicate alla produzione di informazioni in azienda. Saper coniugare Velocità e Qualità nelle attività aziendali e nei suoi output è e sarà ancora per molti anni la vera sfida in questa difficile fase economica per le imprese private e pubbliche e per la società nel suo complesso. 41 Bibliografia Chorafas D., 2004, “The Real-Time Enterprise”, Auerbach. Platter H., Zedier, A., 2011, “In-Memory Data Management: An Inflection Point for Enterprise Applications”, Springer. Davenport T., 2007, “Competing on Analytics”, Harvard Business School Press Davenport T., Harris J., Morison R., 2010, “Analytics at Work. Smarter Decisions, Better Results”, Harvard Business Press. Pasini P., 2004, I Sistemi Informativi Direzionali, Egea. Oxford Economics, 2011, “Real-time Business. Playing to win in the new global marketplace”, White Paper. Credit Suisse, Equity Research, 2011, “The Need for Speed”, Research Report. McKinsey Global Institute, 2011, “Big Data: The Next Frontier for Innovation, Competition and Productivity”, Research report. Baglieri E., D’Amato I., Pasini P., Pozzoli E. (a cura di), 2012, “La velocità aziendale: quali elementi e quali contributi dall’ICT e dalle Operations?”, 2° Forum di Economia e Management sull’Eccellenza Operativa, in collaborazione con ING Direct (in corso di pubblicazione) Baglieri E., D’Amato I., Pasini P., Pozzoli E. (a cura di), 2011, “Le dimensioni del successo competitivo e il ruolo delle ICT”, 1° Forum di Economia e Management sull’Eccellenza Operativa, in collaborazione con ING Direct, Economia e management, n. 4. 42 © 2012 Divisione Ricerche “Claudio Demattè”