4
marzo-aprile 2017
Performance di rete:
Interoute
spiega come migliorarle
Il provider afferma che latenza e throughput sono fattori determinanti per un utilizzo ottimale delle applicazioni cloud
Quando si parla di cloud computing, la performance di rete è tra gli elementi maggiormente trascurati, mentre spesso si sottolineano le
capacità delle macchine virtuali o le offerte legate ai sistemi di software, nonostante velocità, latenza e capacità (o throughput) di rete siano
fattori determinanti per il funzionamento delle applicazioni cloud-based. “I compiti della rete all’interno di un’architettura cloud sono essen-
zialmente due: collegare tra loro i luoghi fisici che ospitano le attività di storage, e connettere i server sui quali si poggiano le applicazioni
usate dagli utenti. In entrambi i casi il tempo ideale di risposta, dall’input dell’utente alla visualizzazione a schermo, dovrà essere inferiore ai
200 millisecondi per non generare un’eccessiva attesa e causare insoddisfazione negli utenti”, spiega in tal senso Matteo Biancani, Sales
Director Interoute Italia, aggiungendo che nonostante l’elevata velocità di trasmissione disponibile oggi, è comunque necessario considerare
ulteriori due elementi per valutare il tempo di risposta: “Innanzitutto, il tempo necessario al server per ricevere l’informazione, elaborare la
risposta e inviarla. In secondo luogo il round trip time, ovvero il tempo necessario affinché i dati vengano trasmessi dal computer client al
server e facciano ritorno al client. In questo contesto, il Virtual Data Center (VDC) di Interoute può vantare la migliore performance di rete
e la più bassa latenza, nelle connessioni tra Europa e USA. Considerando che la latenza occupa la maggior parte del tempo di risposta a
disposizione, per riuscire a ottenere un’esperienza ottimale (pari a circa 150 millisecondi sui 200 disponibili) anche il più piccolo miglioramento
permette di disporre di un tempo maggiore per processare i dati a livello di data center”, prosegue Biancani.
Un ulteriore indicatore della performance di rete è costituito dal throughput, ossia la quantità di dati che può essere trasferita attraverso
la rete in un dato periodo di tempo. “A livello di data center, i principali provider di servizi cloud forniscono un valore medio di throughput
di circa 0,3 Gb/s mentre il VDC di Interoute fa registrare livelli di 1,3 Gb/s tra Londra e Amsterdam, e di 1,1 Gb/s tra Londra e New York”,
sostiene Biancani, concludendo: “Al di là del puro valore numerico, è fondamentale che la performance di rete sia costante nel tempo: in
questo senso, il VDC di Interoute consente di non dover scendere a compromessi, grazie alla backbone globale a bassa latenza ed elevato
throughput, che permette di connettere velocemente i vari nodi”.
www.interoute.itNEWS
Informatica
: “Il Machine Learning? Serve al successo, a patto di...”
Le opportunità offerte dalle tecnologie di apprendimento possono essere sfruttate solo se i dati sono puliti e affidabili
Viviamo in un’epoca che impone di agire in fretta per riuscire ad adattarsi, rispondere al cambiamento e predire gli scenari futuri; il tutto
a una velocità impensabile anche solo pochi anni fa. Il problema? Noi umani non disponiamo della potenza di calcolo necessaria per
elaborare abbastanza in fretta tutti gli input e capire cosa va e cosa non va in modo da generare innovazione, sia essa incrementale o
radicale. “Anche i più recenti modelli predittivi sono basati sulla statistica del 19° e 20° secolo. Sono ormai obsoleti
e time-consuming, poiché all’epoca non importava la velocità di un processo, visto il numero esiguo di dati da
ordinare. Oggi invece, enormi quantità di dati vengono generate quotidianamente, numeri che sono destinati
a crescere con l’avvento dell’IoT e dei social media. Dobbiamo guardare ad altre tecnologie e processi che
siano in grado di supportarci. Tecnologie come il Machine Learning”, spiega in tal senso Claudio Bastia, Ma-
naging Director Italy di Informatica, aggiungendo come con questo termine si indichi essenzialmente il fatto
che i computer possono diventare sempre più bravi in un compito, senza alcun intervento umano e mettere in
atto quanto imparato per migliorare le perfomance future. Questo origina tutta una serie di possibilità in precedenza
troppo complesse anche solo per essere immaginate. Ad esempio, per predire il tasso di abbandono dei clienti, prescrivere la giusta
medicina, ma anche per problemi più complessi come la gestione delle scorte di medicinali in previsione di un aumento delle malattie.
“Secondo McKinsey, il Machine Learning ha già permesso alle banche europee di aumentare le vendite e ridurre i tassi di abbandono ad
un tasso compreso tra il 10 e il 20 per cento. Gli algoritmi intelligenti, infatti, permettono ai dipendenti più bravi di accedere a conoscen-
ze originate dai dati, generando così nuove opportunità per il business. Quando uomini e macchine lavorano insieme in questo modo,
le possibilità sono infinite”, prosegue Claudio Bastia. Lo scenario che descrive vede il Machine Learning entrare così tanto nelle nostre
vite, che spesso neanche ci accorgiamo di tutti i modi in cui viene utilizzato dalle applicazioni per fornire i servizi che usiamo. Tuttavia
come avviene con tutte le nuove tecnologie, esiste la possibilità di un malfunzionamento. Se i dati non sono puliti e affidabili prima di
essere analizzati, potrebbero generare conoscenze fuorvianti o addirittura compiere azioni pericolose. Un glitch potrebbe essere fatale.
“È arrivato il momento per i Cio di guidare le iniziative basate sui dati e rendere possibile tutto questo. Una strategia di gestione dei dati
end-to-end assicurerà la raccolta di dati da ogni fonte e dimensione e li renderà utilizzabili in un ambiente pulito, sicuro e connesso.
Unendo le tecniche di machine learning con quelle di pulizia dei dati, le organizzazioni saranno in grado di individuare nuove opportunità
per sovvertire i mercati e impiegare gli strumenti adatti per impadronirsene”, conclude Claudio Bastia.
www.informatica.com/it/