Il 2010 di Microsoft per i professionisti IT

Il 2010 di Microsoft per i professionisti IT

Le principali novità di Exchange Server 2010, SharePoint 2010 e Azure spiegate direttamente dai manager di Microsoft
Le principali novità di Exchange Server 2010, SharePoint 2010 e Azure spiegate direttamente dai manager di Microsoft

Dove andrà la tecnologia Microsoft per i server e le aziende nel 2010. Una rassegna delle principali novità in lavorazione per il prossimo anno, sulla sporta dei seminari tenuti durante il TechEd di Berlino.

Exchange 2010
Adam Glick, senior technical product manager della divisione Unified Communications di Microsoft, spiegando in quali ambiti sia stato focalizzato lo sviluppo di Exchange 2010 ha indicato la flessibilità ed affidabilità, la possibilità di accesso da qualsiasi luogo e la protezione e conformità con le leggi sul fisco (Sarbanes-Oxley) e sulla privacy.

“Ogni azienda ha bisogno di poter adattare il metodo di deployment con la proprie esigenze e di rendere le mail continuamente disponibili” ha illustrato Glick. “La piattaforma Exchange 2010 può garantire la continua disponibilità offrendo le funzionalità di backup e ripristino. Adesso si possono delegare molti più ruoli e l’amministrazione può avvenire via Web o tramite PowerShell. Con Exchange 2010 non ci sono più limiti al tipo di storage che si può usare per il deployment, si va dalle Storage Area Network ai dischi Direct Attached Storage. Dipende dalle esigenze dell’azienda”.

Glick ha poi chiarito che in Exchange 2010 è presente un nuovo meccanismo che garantisce la disponibilità della mail e che è un’evoluzione della tecnologia di replicazione continua delle versioni precedenti. “Questa tecnologia fornisce la ridondanza completa sui ruoli di Exchange disponendo di almeno due server” ha dichiarato. “Inoltre riduce la frequenza del backup eseguendo fino a sedici repliche di ogni database”.

Il manager di Microsoft ha quindi rilevato che a differenza del passato, gli utenti potranno continuare ad accedere alle proprie caselle di posta elettronica quando queste sono spostate tra i server. “Gli amministratori potranno eseguire le attività di migrazione e di mantenimento sulle caselle di posta anche durante il normale di orario di lavoro e gli utenti continueranno a ricevere ed ad inviare mail”.

Facendo poi degli esempi sul maggiore livello di flessibilità che è offerto dalla delega sui ruoli, Glick ha spiegato che gli addetti al personale potranno aggiornare le informazioni degli utenti e che coloro che lavorano nell’help desk potranno gestire la dimensione delle mailbox.

Glick ha infine illustrato le novità relative all’accesso a Exchange da qualsiasi luogo:

– miglior gestione delle caselle di posta elettronica con parecchie mail: in Outlook Web Access le mail appartenenti allo stesso thread vengono raggruppate insieme, consentendo così all’utente di scorrerle in ordine cronologico;
– MailTips, una nuova funzionalità che permette all’utente di ricevere notifiche di ricevimento o messaggi di risposta automatica impostati dal destinatario, e di essere avvertito nel caso stia inavvertitamente inviando una mail ad una lista di distribuzione;
– aggiornamento di VoiceMail: è stata inserita la possibilità di avere un’anteprima testuale dei messaggi vocali presenti per identificare quelli più urgenti;
– possibilità di personalizzare le regole per la gestione delle chiamate e le opzioni del menù;
– collaborazione più efficiente: qualora sia presente una relazione di federation con l’azienda di un partner, di un fornitore o di un cliente, potrà essere verificata la sua disponibilità.

Glick ha poi illustrato le novità sul fronte della protezione e della conformità con le disposizioni legali in materi di fisco e di privacy:

– l’archiviazione, la retention e il discovery delle email sono integrati in Exchange 2010;
– possibilità di definire i periodi di retention con un maggior livello di granularità, così da renderli conformi con le varie leggi locali in materia di privacy e contabilità;
– possibilità di applicare vari livelli di controllo sulle mail in base alla tipo di dati sensibili che contengono;
– controllo nei file allegati e ricerca di eventuali email che contengano informazioni confidenziali;
– blocco della diffusione di software maliziosi e di spam grazie all’integrazione con Microsoft Forefront Protection 2010 for Exchange Server;
– console di amministrazione centralizzata;
– definizione di una lista al cui interno siano indicati i telefoni autorizzati a collegarsi con i server Exchange.

Riguardo all’ultimo punto, Glick ha chiarito che si possono bloccare i device non supportati, metterli in quarantena (device sconosciuti che devono essere analizzati con maggiore attenzione) o inviare delle notifiche (gli amministratori ricevono la notifica quando un device è in quarantena; gli utenti ricevono un messaggio che mostra lo stato di approvazione del loro device).

Glick ha infine fornito alcune indicazioni sul futuro di Exchange.”Molti si chiedono se Exchange 2010 sarà l’ultima versione che si potrà installare localmente, visto la presenza di Exchange On Line Services. Per adesso non abbiamo alcuna intenzione di abbandonare la versione tradizionale di Exchange. Ogni azienda, in base alle proprie esigenze, potrà decidere se sia più conveniente la versione hosted (che gira sui server di Microsoft, NdR) o quella on premise (che gira sui server locali dell’azienda, NdR). Fino a quando le aziende lo chiederanno, noi continueremo a fornire la versione tradizionale”.

Nonostante inizialmente Microsoft avesse detto che, dopo Exchange 2007, le Public Folder non sarebbero più state supportate, Glick ha sottolineato come questa funzionalità sia ancora presente in Exchange 2010 e lo sarà anche in Exchange 15.

Sull’eventualità che Microsoft possa spostare lo store engine di Exchange su SQL Server, Glick ha precisato: “In Exchange 2010 siamo rimasti su ESE (già noto come Jet Blue). Dai dei test che abbiamo svolto per verificare la fattibilità di passare su SQL è emerso che, sebbene tecnicamente possibile, le funzionalità e le prestazioni resterebbero immutate. Per questo motivo abbiamo scelto di migliorare lo storage engine esistente”. Per comprendere la strategia di Microsoft sul cloud computing occorre prestare attenzione allo sviluppo di Azure: David Chappell, a capo della società di consulenza Chappel & Associates e considerato uno dei massimi esperti mondiali nel settore, ha spiegato che, con Azure, Redmond intende offrire una soluzione altamente affidabile e scalabile con cui le aziende possano rendere disponibili le proprie applicazioni su Internet tramite la sua piattaforma.

La piattaforma Azure poggia su tre pilastri:

– Windows Azure, il sistema operativo dove sono eseguite le applicazioni e dove sono mantenuti i dati nella cloud;
– SQL Azure, il database in cui vengono archiviati i dati della cloud;
– MS.NET Services, l’insieme di servizi web atraverso cui le applicazioni e i servizi esterni alla cloud si collegano e interagiscono con le applicazioni che si trovano all’interno della cloud.

Windows Azure può essere quindi scomposto in tre parti:

– Compute, che è il servizio che consente l’esecuzione delle applicazioni;
– Storage, che serve per mantenere i dati;
– Fabric, che è lo strumento per gestire e per monitorare le applicazioni che si trovano nella cloud.

Compute è stato progettatto per offrire lo scale out, ovvero la possibilità di eseguire più istanze del medesimo applicativo su più server.

“Se andiamo ad osservare meglio com’è fatto Compute, vedremo che ogni applicazioni per Azure può avere più istanze ed ognuna è eseguita sulla propria macchina virtuale” ha spiegato Chappell. “Ognuna di queste macchine virtuali gira su una versione di Microsoft Hyper-V ottimizzata per il cloud computing, e contiene un’installazione di Windows Server 2008 a 64 bit. Per eseguire la propria applicazione dopo averla caricata nella cloud, uno sviluppatore utilizzerà uno speciale file di configurazione ove indicherà quante istanze dovranno essere eseguite. A quel punto, Windows Azure creerà le macchine virtuali necessarie ed eseguirà l’applicazione”.

Queste macchine virtuali possono essere di due tipologie:

– Web, dedicata alle web application che richiedono IIS 7.0 e ASP.NET. Le macchine virtuali con questo ruolo possono accettare richieste in HTTP e in HTTPS;
– Worker, assegnata alle macchine virtuali che devono svolgere attività generiche (che non comprendano l’esecuzione delle web app) e che possono essere utilizzate per eseguire in background le elaborazioni richieste da quelle con ruolo Web. Queste macchine virtuali, a differenza dell’altro tipo, non accettano richieste di connessioni dal mondo esterno o dall’interno e l’unico modo con cui le altre macchine virtuali possono interagirvi è scrivendo dei messaggi nelle loro code.

“Se uno sviluppatore realizza ad esempio una web application che prevede l’interazione con un altro applicativo, e vuole eseguirne quattro istanze di ciascuna, nel file di configurazione indicherà che dovranno essere eseguite quattro istanze di macchine virtuali di tipo web e quattro di tipo worker”. L’analista ha quindi osservato che saranno supportati soltanto gli applicativi che girano in User Mode e non quelli in Admin Mode .

Storage, come suggerisce il nome, è il servizio di repository offerto per mantenere i dati degli applicativi come la tabelle, le bolle (contenitori usati per i dati di tipo binario) e le code in alta affidabilità e scalabilità. A proposito delle “tabelle” dello Storage, Chappell ha sottolineato che non bisogna farsi confondere dal nome perchè non sono le normali tabelle dei database relazionali. “Anche se hanno questo nome, i dati non sono organizzati in forma tabellare ma con una semplice gerarchia, ci sono soltanto delle entità che contengono delle proprietà. Il motivo per cui Microsoft ha scelto quest’approccio è che, rispetto a quello tradizionale, risulta molto più efficiente per lo scale-out dello storage: una tabella di Windows Azure può contenere miliardi di entità al cui interno sono presenti terabyte di dati”.

Sempre sulle strutture dati di Storage, Chappell ha osservato che mentre le bolle e le tabelle servono per memorizzare e accedere ai dati, le code servono per consentire alle istanze di tipo Web di scambiare messaggi con quelle di tipo Worker. Ad esempio, un utente potrebbe sottoporre una richiesta per eseguire un task che richieda parecchia potenza di calcolo attraverso una pagina web implementata da una istanza di tipo Web. Questa istanza, quando riceve la richiesta, scrive un messaggio nella coda dell’istanza Worker che descrive l’attività che deve essere espletata. L’istanza Worker, attende i messaggi con i task da eseguire e quando li trova, dopo averli completati restituisce il risultato: o su di un’altra coda o aprendo una connessione in uscita.

Tutte le applicazioni e i dati di Windows Azure sono fisicamente mantenuti in un data center di Microsoft. All’interno di questo data center, l’insieme delle macchine dedicato a Windows Azure è organizzato in una Fabric, la terza componente di Windows Azure.
Questi server sono gestiti da un software denominato fabric controller che gestisce i server attraverso i fabric agent , componenti software, installati nei server della Fabric. Agent controller , grazie alle informazioni che riceve dagli agenti, oltre a monitorare le applicazioni e a gestire i sistemi operativi, decide dove eseguire le nuove applicazioni, scegliendo il server fisico in modo da ottimizzare l’uso delle risorse hardware.

L’Agent Controller svolge quest’ultima attività utilizzando il file di configurazione preparato dallo sviluppatore, che indica quante istanze di macchine virtuali di tipo web o di tipo worker voglia utilizzare. Uno dei software Microsoft al quale è stata dedicata molta attenzione in previsione del prossimo anno è Sharepoint 2010, che nella strategia di BigM sarà la piattaforma di riferimento per la business collaboration sia per le aziende che per il web.

Secondo Richard Riley, group product manager di SharePoint, le novità a livello di infrastruttura IT che saranno presenti nella prossima versione di SharePoint 2010 si concentrano sulle tendenze identificate nel mercato. Nell’ambito del deployment, la parola d’ordine sarà 64 bit: SharePoint 2010 sarà infatti disponibile solo nella versione a 64 bit e sarà supportato solo su Windows Server 2008 SP2 e Windows 2008 R2 nelle versioni a 64 bit. Come database, saranno supportati soltanto SQL Server 2008 o SQL Server 2005 nelle versioni a 64 bit. È richiesto SharePoint 2007 con SP2 per l’aggiornamento, mentre Internet Explorer 6.0 non è più supportato.

Per mitigare eventuali criticità nel corso dell’attività di aggiornamento, con l’SP2 di Sharepoint 2007 Microsoft ha rilasciato un tool denominato Pre-Upgrade Checker (aggiornato lo scorso ottobre) che analizza la presenza di potenziali problemi. Riley, riguardo le strategie di aggiornamento da SharePoint 2007 a Sharepoint 2010, ha dichiarato che ne saranno supportate soltanto due:

– In-place Update: quest’approccio prevede che siano aggiornati i server e i database. La sua semplicità si paga con l’eventuale downtime della farm. È consigliato per le installazioni su singolo server o per farm di piccole dimensioni;
– Database Attach and Upgrade: con questo approccio vengono spostati soltanto i contenuti, non le impostazioni di configurazione. Il principale beneficio è che le farm Sharepoint 2007 restano disponibili. Questo scenario è consigliato per i deployment su farm di grandi dimensioni o nel caso di acquisto di nuovo hardware.

Riley ha quindi spiegato che, rispondendo alle esigenze dei clienti, in caso di aggiornamento il look and feel del sito resterà uguale, evitando che si possano creare dei siti “misti” overo che contengano sia aree con il nuovo look sia aree con il vecchio. Il group manager di Microsoft ha quindi precisato che in questo modo sarà l’amministratore del sito o della farm a decidere quando passare alla nuova interfaccia, e che in caso di anomalie sarà possibile tornare alla vecchia versione.

“Questo meccanismo non è una scusa per non pianificare con attenzione la migrazione a SharePoint 2010 e non è neanche una soluzione a lungo termine. Serve solo per consentire l’aggiornamento a SharePoint 2010 in tempi brevi, mantendendo il vecchio look e dando il tempo necessario per passare a quello nuovo”, ha aggiunto Riley.

Microsoft ha inoltre cercato di semplificare, rendere più sicura e “scriptare” l’installazione di SharePoint 2010. Rispetto alle versioni precedenti sarà infatti possibile:

– eseguire il SYSPREP;
– avviare il wizard di installazione partendo da un file di configurazione;
– usare PowerShell per l’installazione tramite script (sono previste 652 cmdlet di PowerShell per SharePoint);
– impedire tramite GPO l’installazione non controllata di Sharepoint (questa funzionalità è supportata solo se il sistema operativo client è Windows 7).

Anche sul fronte dell’amministrazione e della manteinance sono presenti alcune novità: la console di amministrazione via web risulterà più semplice e pulita per via dell’uso dei Ribbon contestuali come quelli presenti in Office 2007, e potranno essere delegati gli accessi su specifiche funzionalità. SharePoint Health Analyzer integra sia un manintenance engine che delle regole, azioni e avvisi che possono essere personalizzati. SharePoint è infine in grado di gestire le sue password e, nel caso integrazione con Active directory, utilizza le delle password applicate in dominio.

Riley ha infine osservato che sarà introdotto un nuovo protocollo che ottimizzerà il traffico di rete nello scambio di file tra i client ed il server. “Questo protocollo prevede tre modalità di interazione: nella modaità Cached, il file sarà riscaricato solo se è diverso rispetto a quello già presente; nella modalità Differential saranno salvati solo i cambiamenti; nella modalità chunking inizialmente saranno scaricate in locale solo le prime dieci slide di una presentazione PowerPoint”.

Giovanni Fleres

Link copiato negli appunti

Ti potrebbe interessare

Pubblicato il
24 dic 2009
Link copiato negli appunti