Distribuzione, disaccoppiamento, analisi: la nuova frontiera dell’IT admin Maggio 26, 2014

Distribuzione, disaccoppiamento, analisi: la nuova frontiera dell’IT

Nel futuro del mondo dell’IT incombono grossi cambiamenti e sono principalmente tre le correnti che sembrano in grado di rimodellarne molteplici aspetti.

 

Tutto sarà distribuito

La soluzione ideale per la maggior parte delle organizzazioni, sia dal punto di vista dell’architettura che dal punto di vista operativo, consisterebbe in un’IT totalmente centralizzata, con tutte le applicazioni, i dati, i server e le risorse di storage che risiedono in un unico data center.
Eppure al giorno d’oggi sembra prendere piede una modalità di gestione distribuita dei dati e delle applicazioni. La disponibilità di hardware e software as a service costituisce un incentivo finanziario a distribuire applicazioni e dati aziendali fra vari provider, mentre la necessità di gestire i processi interaziendali integrando i propri sistemi con quelli di fornitori e partner porta alla distribuzione dei dati e dei processi.
Ma la distribuzione dei dati e delle applicazioni comporta il crescente problema della fiducia e dell’autenticazione: i dati aziendali sono affidati alla custodia di molte terze parti e i fornitori terzi potrebbero tenere molteplici copie dei dati nelle loro architetture complesse e proprietarie, con la conseguente perdita di controllo dell’azienda sui propri dati.

 

Tutto sarà disaccoppiato

La distribuzione impone il disaccoppiamento e questo, a sua volta, rende possibile la distribuzione. Quando dati e applicazioni sono distribuiti non possono più essere monolitici.

  Nel caso delle applicazioni, devono essere modulari e capaci di interagire con altre applicazioni.
L’architettura orientata ai servizi, o SOA, si è dimostrata valida nel disaccoppiamento delle applicazioni in “servizi” interattivi e modulari, ma si è rivelata una soluzione solo parziale per il disaccoppiamento, dato che si concentra sulle applicazioni e non sui dati.
Per quanto riguarda il disaccoppiamento o partizionamento dei dati, mentre l’IT si è evoluta ed è cambiata profondamente negli ultimi 25 anni, il principale modello di archiviazione dei dati, ossia il database relazionale, è rimasto sostanzialmente immutato.
Il database relazionale non è molto adatto a essere distribuito, dal momento che questo modello manca di partition tolerance (tolleranza al partizionamento).
Di conseguenza, è emersa una serie di nuovi modelli di gestione dei dati non relazionali, chiamati collettivamente NoSQL (sigla che sta a significare “not only SQL”, non solo SQL, il linguaggio di accesso ai dati utilizzato dai sistemi di database relazionali): questi database cercano di affrontare problematiche come la gestione di dati distribuiti, dati in tempo reale, dati multimediali, metadata e altro ancora.  

Gli approcci NoSQL o Big Data sono finalizzati a elaborare grandi volumi di informazioni, spesso in tempo reale, che possono essere strutturati o non strutturati e risiedere o non risiedere in un singolo database centrale.  

Tutto sarà analizzato

L’analisi dei metadata (i dati sui dati) è in rapidissima crescita in molteplici campi, al fin di individuare ed elaborare strategie mirate sul comportamento del proprio target.
Ad esempio, l’analisi dei metadata è ormai una prassi per l’individuazione delle minacce alla sicurezza; oppure ancora, molti siti Web analizzano i dati sull’interazione dei clienti per personalizzare automaticamente l’esperienza di navigazione al loro interno per i singoli utenti. I retailer stanno iniziando ad analizzare le sequenze video del traffico dei clienti nei punti vendita per prevedere i tassi di conversione. Sempre più diffusa è anche l’analisi dei social network allo scopo di valutare le opinioni dei consumatori.

  L’utilizzo sempre più consolidato di Facebook come documento di identità de facto nella maggior parte del Web (più di due milioni di siti Web consentono l’accesso attraverso l’account Facebook, e secondo i dati forniti direttamente da Facebook, oltre 250 milioni di utenti accedono ogni mese a siti Web di terze parti mediante l’account Facebook) gioca un ruolo decisivo nell’incremento dell’analisi dei clienti.  

Attraverso queste modalità di utilizzo dell’account Facebook, la navigazione su un sito web non è più effettuata da utenti anonimi, ma da utenti connotati da molteplici informazioni relative ai loro gusti, interessi, preferenze, conoscenze e molto altro.  

Ma l’analisi non è affatto limitata a consumatori e siti Web. Nel manifatturiero, le informazioni raccolte dai sensori vengono utilizzate per ottimizzare le operazioni degli stabilimenti. Le informazioni riportate sulle etichette RFID aiutano a tenere traccia delle merci lungo tutta la supply chain. Nel settore della fornitura di energia elettrica, le informazioni in tempo reale rilevate dai contatori intelligenti vengono utilizzate per allineare il consumo alla produzione, per ottimizzare la rete di distribuzione e per trasformare la rete elettrica in una “smart grid”.

Fonte : Accenture

Condividi sui social!