In Lottomatica il modello cloud computing ha iniziato a essere
implementato tre anni fa, ma solo per ridurre i costi di gestione
dell’infrastruttura tecnologica della società. In breve tempo
però le cose sono cambiate radicalmente: “Quello che non
prevedevamo è che in tre anni sarebbe triplicato il carico
transazionale: questo è aumentato in maniera impressionante
per il crescente numero di nuove iniziative di business ovvero
di nuove applicazioni e sistemi di gioco, quindi dopo un po’
di tempo abbiamo scoperto che per noi il cloud computing è
diventato un fondamentale abilitatore alla crescita – spiega
Sandro Borioni, Responsabile Operations and Architectures
della Direzione IT & Operations di GTECH. Tanto che ora siamo
consapevoli del fatto che se fossimo rimasti nelle logiche dei
vecchi data center, la nostra lentezza nel dare risposte avreb-
be condizionato negativamente lo sviluppo del business”.
La virtualizzazione radicale del data center
La politica seguita è stata un approccio radicale alla virtualiz-
zazione, di server, storage ed applicazioni che ora si sta stu-
diando come estendere anche a servizi di rete, bilanciamento
e sicurezza: “L’obiettivo è arrivare a una completa smaterializ-
zazione della fisicità del data center, in modo tale da risultare
poi molto flessibili e molto veloci”. Il beneficio principale di
questa impostazione non sta solo in un miglioramento consi-
stente nella velocità di delivery: “Non avendo vincoli sul fronte
della fisicità, ci siamo di fatto slegati dal processo che vede
per prima cosa il disegno e l’approvazione dell’architettura
applicativa e poi l’acquisto dell’hardware, del middleware e
delle soluzioni di monitoraggio sul quale implementare quanto
definito. Oggi invece abbiamo cambiato completamente il pa-
radigma: creiamo nuova capacità infrastrutturale acquistando
in modalità vendor indipendent i sistemi che seguono i nostri
standard, dopodiché questa viene istanziata sulla base delle
necessità dello sviluppo applicativo che arriva dal business”.
I benefici? “Siamo passati da cicli di progettazione e delivery di
almeno tre mesi a dieci giorni, ma anche meno”. Il passaggio
successivo è pensare di realizzare il delivery in modo asso-
lutamente svincolato dai condizionamenti infrastrutturali con
un processo completamente automatizzato: “A oggi però i
volumi dell’Italia non giustificherebbero l’investimento. Invece
se ci proiettiamo su uno scenario internazionale, non è più
così. Istanziare per esempio un’applicazione su ‘n’ clienti B2B
in modalità as a service, si può fare cambiando il processo
produttivo dell’IT: non devo più rilasciare un pacchetto softwa-
re, ma creo un’infrastruttura virtuale che poi viene clonata ‘n’
volte con degli automatismi”.
Big data innovazione reale
Un secondo tema di interesse per Lottomatica sono i big
data: “Da applicare a quei contesti dove riconosciamo bene
chi è il nostro cliente, ovvero nell’online”. Per esempio oggi si
è reso necessario tenere il log di tutte le attività svolte da un
singolo giocatore: “E questo addirittura a fini di compliance;
non possiamo perdere nemmeno una transazione e dob-
biamo operare in tempi talmente stretti che non riusciamo
a consolidare le nuove informazioni che arrivano sulla base
dati”. Tutto questo diventa un punto di analisi importante: “Ci
stiamo organizzando in vari modi, da un lato lavoriamo con
database machine specializzate; dall’altro iniziamo a intro-
durre dei motori di base dati NoSql distribuiti… Per quanto ci
riguarda preferiamo questa soluzione per ragioni di scalabilità
alla tecnologia inmemory centralizzata che opera sul modello
Sql tradizionale”.
Un progetto in cui sono state utilizzate le tecnologie big
data è stato quello che ha visto ridurre da minuti a secondi
la calibrazione in tempo reale delle quote nelle scommesse
sportive: “Aver tagliato così drasticamente i tempi ha signi-
ficato per noi ridurre notevolmente il rischio. Il punto è stato
spostare la capacità di calcolo dell’analisi direttamente al
momento in cui arriva online la singola transazione, facendo
comunque riferimento a uno storico di milioni di informazioni
e di correlazioni. Questa esperienza mi ha fatto toccare con
mano che le tecnologie per i big data sono veramente un salto
di paradigma reale che permette effettivamente di fare delle
cose che invece erano molto difficili, o addirittura impossibili,
con i modelli del passato a costi commisurati con il valore
delle informazioni che si trattano”.
Cloud e big data, due cambi di paradigma fondamentali
maggio-giugno 2013
17
Sandro Borioni, Responsabile Operations and Architectures
della Direzione IT & Operations di GTECH