Alfonso Maruccia

Brucia il data center, tutta Internet ne risente

Un incidente negli States ha reso irraggiungibili numerosi servizi e siti web. Colpiti siti di geolocalizzazione, network televisivi, ospedali e Microsoft

Roma - Il cloud computing va in fiamme: alle 11 circa di giovedì sera, quasi in tempo per la festa nazionale USA del 4 luglio, il data center Fisher Plaza localizzato nel centro cittadino di Seattle è stato vittima di un incendio con relativa interruzione della fornitura di corrente elettrica a tutto l'impianto. Il risultato è stato un quasi-panico tra gli operatori di rete grandi e piccoli, tutti colpevoli di affidarsi al servizio "premium" della utility e per questo rimasti irraggiungibili almeno fino al primo pomeriggio di sabato.

A spiegare che cosa sia realmente successo sono i responsabili di uno di quei servizi caduti vittima dell'incidente, Bing Travel. Secondo quanto comunicato sul sito del neonato portale viaggi di Microsoft, la colpa è di un "trasformatore fuso" che ha provocato l'interruzione della corrente all'intero edificio. Bing Travel si appoggia appunto ai server di Fisher Plaza, mentre la situazione non ha coinvolto in maniera diretta il portare di ricerca web vero e proprio.

Ma oltre a Bing Travel il guasto ha messo nei guai anche altri importanti aziende come Authorize.net, intermediario di transazioni finanziarie basate sul web che, colpito dall'incidente, ha innescato disservizi a catena per quei sistemi che se ne servivano per processare gli acquisti da parte dei clienti (uno su tutti, il web hosting condiviso di Midphase). Colpito anche Geocaching.com, celebre centro di raccolta dati per la caccia al tesoro tramite rete satellitare GPS, anche se in questo caso non si può certo parlare di un business mission-critical da tenere online a tutti i costi.
A essere mission-critical era piuttosto il data center stesso che, come dimostra la sua prestigiosa clientela (Microsoft in testa), offriva un vero e proprio servizio di prima classe con tanto di uffici, server remoti e spazio in affitto per ogni genere di esigenza comunicativa.

Altre vittime illustri del guasto presso Fisher Plaza sono stati i sistemi IT interni dello Swedish Hospital, i server della chiesa di Mars Hill, il sistema di spedizione postale del porto di Seattle, il sito di Pacific Science Center, la stazione radio-televisiva locale KOMO (che ha dovuto ripiegare su mezzi di fortuna per continuare le trasmissioni) e alcuni servizi di Verizon.

Fortunatamente per i tanti soggetti coinvolti la corrente è tornata a pompare nel data center prima del weekend festivo, precisamente sabato mattina. Risolto il problema e ripristinata la connettività per Bing Travel, Geocaching e compagnia rimangono le perplessità riguardo al fatto che, nel 2009, Internet rimanga fragile, tra incidenti e terrorismo tecnologico).

Alfonso Maruccia
29 Commenti alla Notizia Brucia il data center, tutta Internet ne risente
Ordina
  • Siti di notevole importanza non possono fidarsi di un unico operatore per quanto "organizzato" questo possa dirsi.
    In ogni caso occorre mettere in conto anche possibili periodi di downtime ed avere un piano per ritornare on-line il prima possibile.
    non+autenticato
  • che i DNS di freedns.afraid.org non andavano! Arrabbiato

    ho dovuto ripiegare ad altro In lacrime
  • E' anche per questo che qualche giorno fa non riuscivo a giocare a Bejewled Blitz su Facebook!!! In lacrimeIn lacrimeIn lacrime
    non+autenticato
  • Cerchiamo di non generalizzare!

    ho gia letto commenti poco seri...
    Internet nasce appositamente decentrata come rete prevedendo percorsi alternativi in caso si "rottura" di un nodo.
    Questo non vuol dire che il nodo sia esente da failure.

    Se poi nel nodo c'è l'erogazione di un servizio "unico" non c'è storia.
    esistono vari concetti e livelli di sicurezza:
    disaster recovery, High availability e business continuity.
    Il cloud computing è una declinazione.

    Bisogna stare molto attenti a quello che gli IT e i CIO fanno: ho visto un'istituto di credito di medie dimensioni rinunciare a mettere in pratica il piano di disaster recovery nel datacenter remoto per paura di disallineamento dei dati e delle procedure. questo vuol dire che l'insieme dei fattori non era stato assemblato in modo sicuro da permettere tale procedura.

    Se chi viene coinvolto da un failure ha servizi mission critical e non ha una procedura seria per rimediare a un problema del genere, magari dopo aver investito milioni di euro, deve prendersene la responsabilità.
  • - Scritto da: elg22
    > Cerchiamo di non generalizzare!
    >
    >
    > Bisogna stare molto attenti a quello che gli IT e
    > i CIO fanno: ho visto un'istituto di credito di
    > medie dimensioni rinunciare a mettere in pratica
    > il piano di disaster recovery nel datacenter
    > remoto per paura di disallineamento dei dati e
    > delle procedure.

    In un altro si sono dimenticati di fare il pieno di gasolio al gruppo elettrogeno...
    non+autenticato
  • - Scritto da: Alessandro
    > - Scritto da: elg22
    > > Cerchiamo di non generalizzare!
    > >
    > >
    > > Bisogna stare molto attenti a quello che gli IT
    > e
    > > i CIO fanno: ho visto un'istituto di credito di
    > > medie dimensioni rinunciare a mettere in pratica
    > > il piano di disaster recovery nel datacenter
    > > remoto per paura di disallineamento dei dati e
    > > delle procedure.
    >
    > In un altro si sono dimenticati di fare il pieno
    > di gasolio al gruppo
    > elettrogeno...

    non proprio: avevano paura di sputtanare il db Oracle con i dati finanziari di migliaia di clienti...

    hanno optato per un più tranquillo disservizio di un paio d'ore.

    ;)
  • Lavoro in un istituto di credito nell'area informatica, e ti assicuro che ci sono direttive dell'ABI molto ferree circa il salvataggio dei dati. Non credo quindi che l'istituto di credito a cui ti riferisci abbia rinunciato al salvataggio per paura di essere disallineato, riscia il ritiro della licenza da parte della Banca d'Italia! L'ultima "tecnologia" che vedo negli istituti di credito è quella di avere doppio o triplo datacenter posizionato a km di distanza perfettamente sincronizzati tra loro in tempo reale. Se cade uno, entro poco tempo si riesce a partire con l'altro senza grossi traumi. Questo eviterebbe di fare il backup giornaliero su nastri, anche se quello si fa ugualmente. Il backup dei dati è obbligatorio per legge e nessuna azianda (soprattutto di credito che ha direttive ancora più rigide) si può sottrarre.
    non+autenticato
  • anche io ci lavoro, e aggiungo che si tratta di dati critici che non è possibile ricreare in nessun modo, un mirror totalmente sincronizzato è posizionato sempre in un luogo "bunker" non noto, a prova di disastri nucleari.



    - Scritto da: Tommybob
    > Lavoro in un istituto di credito nell'area
    > informatica, e ti assicuro che ci sono direttive
    > dell'ABI molto ferree circa il salvataggio dei
    > dati. Non credo quindi che l'istituto di credito
    > a cui ti riferisci abbia rinunciato al
    > salvataggio per paura di essere disallineato,
    > riscia il ritiro della licenza da parte della
    > Banca d'Italia! L'ultima "tecnologia" che vedo
    > negli istituti di credito è quella di avere
    > doppio o triplo datacenter posizionato a km di
    > distanza perfettamente sincronizzati tra loro in
    > tempo reale. Se cade uno, entro poco tempo si
    > riesce a partire con l'altro senza grossi traumi.
    > Questo eviterebbe di fare il backup giornaliero
    > su nastri, anche se quello si fa ugualmente. Il
    > backup dei dati è obbligatorio per legge e
    > nessuna azianda (soprattutto di credito che ha
    > direttive ancora più rigide) si può
    > sottrarre.
    non+autenticato
  • ripeto

    "un mirror totalmente sincronizzato è posizionato sempre in un luogo "bunker" non noto, a prova di disastri nucleari."


    auauuaua ma chi te l'ha detta quella?A bocca aperta

    il bunker antiatomico in un luogo non noto ;D

    si a disneyland

    mauauau


    - Scritto da: utente utonto
    > anche io ci lavoro, e aggiungo che si tratta di
    > dati critici che non è possibile ricreare in
    > nessun modo, un mirror totalmente sincronizzato è
    > posizionato sempre in un luogo "bunker" non noto,
    > a prova di disastri
    > nucleari.
    >
  • non parlavo di backup ma di disaster recovery in modalità HA.
    il sistema ce l'avevano eccome, da svariati milioni di euro, solo che non erano sicuri che funzionasse tutto.
    I dati erano sincronizzati, ma i sistemi distribuiti su vari datacenter richiedevano automatismi di riconfigurazione mai testati a caldo.

    La morale è che l'IT manager ha preferito "inventarsi" una scusa tecnica e dare parte della colpa "all'informatica" che rischiare di stroiare i sistemi creando problemi sui dati. La seconda opzione gli avrebbe fatto cadere la testa.

    Non sto parlano male del mondo bancario (anche se ....Con la lingua fuori ) ma sto solo considerando che anche nei settori più delicati nonostante spese ingenti la sicurezza reale della business continuity non sempre è raggiungibile.
  • "L'ultima "tecnologia" che vedo negli istituti di credito è quella di avere doppio o triplo datacenter posizionato a km di distanza perfettamente sincronizzati tra loro in tempo reale."

    Ultima tecnologia.... guarda che almeno dal 1991 quando ho fondato la mia azienda il gruppo Cassa Risparmi VR-VI-BL-AN oggi Unicredit aveva due datacenter uno a VR e l'altro a Bussolengo (VR) quest'ultimo 7 piani sottoterra blindato come fort knox ed era considerato il minimo insindacabile per banche di quel livello....
    non+autenticato
  • forse intendi un piano di HA e non di disaster recovery
    non+autenticato
  • Ci dimentichiamo che internet e' stata creata proprio per non essere fragile e in se non lo e'.
    Se il datacenter era geograficamente ridondato, il problema era limitato e se hai applicazioni mission critical lo devi fare.
    La fragilita' di internet o meglio dei tuoi servizi e' data dalla tua volonta' e dal tuo portafoglio.
    No money no honey Occhiolino
    non+autenticato
CONTINUA A LEGGERE I COMMENTI
Successiva
(pagina 1/2 - 7 discussioni)