Il 2010 di Microsoft per i professionisti IT

Le principali novità di Exchange Server 2010, SharePoint 2010 e Azure spiegate direttamente dai manager di Microsoft

Roma – Dove andrà la tecnologia Microsoft per i server e le aziende nel 2010. Una rassegna delle principali novità in lavorazione per il prossimo anno, sulla sporta dei seminari tenuti durante il TechEd di Berlino.

Exchange 2010
Adam Glick, senior technical product manager della divisione Unified Communications di Microsoft, spiegando in quali ambiti sia stato focalizzato lo sviluppo di Exchange 2010 ha indicato la flessibilità ed affidabilità, la possibilità di accesso da qualsiasi luogo e la protezione e conformità con le leggi sul fisco (Sarbanes-Oxley) e sulla privacy.

“Ogni azienda ha bisogno di poter adattare il metodo di deployment con la proprie esigenze e di rendere le mail continuamente disponibili” ha illustrato Glick. “La piattaforma Exchange 2010 può garantire la continua disponibilità offrendo le funzionalità di backup e ripristino. Adesso si possono delegare molti più ruoli e l’amministrazione può avvenire via Web o tramite PowerShell. Con Exchange 2010 non ci sono più limiti al tipo di storage che si può usare per il deployment, si va dalle Storage Area Network ai dischi Direct Attached Storage. Dipende dalle esigenze dell’azienda”.

Glick ha poi chiarito che in Exchange 2010 è presente un nuovo meccanismo che garantisce la disponibilità della mail e che è un’evoluzione della tecnologia di replicazione continua delle versioni precedenti. “Questa tecnologia fornisce la ridondanza completa sui ruoli di Exchange disponendo di almeno due server” ha dichiarato. “Inoltre riduce la frequenza del backup eseguendo fino a sedici repliche di ogni database”.

Il manager di Microsoft ha quindi rilevato che a differenza del passato, gli utenti potranno continuare ad accedere alle proprie caselle di posta elettronica quando queste sono spostate tra i server. “Gli amministratori potranno eseguire le attività di migrazione e di mantenimento sulle caselle di posta anche durante il normale di orario di lavoro e gli utenti continueranno a ricevere ed ad inviare mail”.

Facendo poi degli esempi sul maggiore livello di flessibilità che è offerto dalla delega sui ruoli, Glick ha spiegato che gli addetti al personale potranno aggiornare le informazioni degli utenti e che coloro che lavorano nell’help desk potranno gestire la dimensione delle mailbox.

Glick ha infine illustrato le novità relative all’accesso a Exchange da qualsiasi luogo:

– miglior gestione delle caselle di posta elettronica con parecchie mail: in Outlook Web Access le mail appartenenti allo stesso thread vengono raggruppate insieme, consentendo così all’utente di scorrerle in ordine cronologico;
– MailTips, una nuova funzionalità che permette all’utente di ricevere notifiche di ricevimento o messaggi di risposta automatica impostati dal destinatario, e di essere avvertito nel caso stia inavvertitamente inviando una mail ad una lista di distribuzione;
– aggiornamento di VoiceMail: è stata inserita la possibilità di avere un’anteprima testuale dei messaggi vocali presenti per identificare quelli più urgenti;
– possibilità di personalizzare le regole per la gestione delle chiamate e le opzioni del menù;
– collaborazione più efficiente: qualora sia presente una relazione di federation con l’azienda di un partner, di un fornitore o di un cliente, potrà essere verificata la sua disponibilità.

Glick ha poi illustrato le novità sul fronte della protezione e della conformità con le disposizioni legali in materi di fisco e di privacy:

– l’archiviazione, la retention e il discovery delle email sono integrati in Exchange 2010;
– possibilità di definire i periodi di retention con un maggior livello di granularità, così da renderli conformi con le varie leggi locali in materia di privacy e contabilità;
– possibilità di applicare vari livelli di controllo sulle mail in base alla tipo di dati sensibili che contengono;
– controllo nei file allegati e ricerca di eventuali email che contengano informazioni confidenziali;
– blocco della diffusione di software maliziosi e di spam grazie all’integrazione con Microsoft Forefront Protection 2010 for Exchange Server;
– console di amministrazione centralizzata;
– definizione di una lista al cui interno siano indicati i telefoni autorizzati a collegarsi con i server Exchange.

Riguardo all’ultimo punto, Glick ha chiarito che si possono bloccare i device non supportati, metterli in quarantena (device sconosciuti che devono essere analizzati con maggiore attenzione) o inviare delle notifiche (gli amministratori ricevono la notifica quando un device è in quarantena; gli utenti ricevono un messaggio che mostra lo stato di approvazione del loro device).

Glick ha infine fornito alcune indicazioni sul futuro di Exchange.”Molti si chiedono se Exchange 2010 sarà l’ultima versione che si potrà installare localmente, visto la presenza di Exchange On Line Services. Per adesso non abbiamo alcuna intenzione di abbandonare la versione tradizionale di Exchange. Ogni azienda, in base alle proprie esigenze, potrà decidere se sia più conveniente la versione hosted (che gira sui server di Microsoft, NdR) o quella on premise (che gira sui server locali dell’azienda, NdR). Fino a quando le aziende lo chiederanno, noi continueremo a fornire la versione tradizionale”.

Nonostante inizialmente Microsoft avesse detto che, dopo Exchange 2007, le Public Folder non sarebbero più state supportate, Glick ha sottolineato come questa funzionalità sia ancora presente in Exchange 2010 e lo sarà anche in Exchange 15.

Sull’eventualità che Microsoft possa spostare lo store engine di Exchange su SQL Server, Glick ha precisato: “In Exchange 2010 siamo rimasti su ESE (già noto come Jet Blue). Dai dei test che abbiamo svolto per verificare la fattibilità di passare su SQL è emerso che, sebbene tecnicamente possibile, le funzionalità e le prestazioni resterebbero immutate. Per questo motivo abbiamo scelto di migliorare lo storage engine esistente”. Per comprendere la strategia di Microsoft sul cloud computing occorre prestare attenzione allo sviluppo di Azure: David Chappell, a capo della società di consulenza Chappel & Associates e considerato uno dei massimi esperti mondiali nel settore, ha spiegato che, con Azure, Redmond intende offrire una soluzione altamente affidabile e scalabile con cui le aziende possano rendere disponibili le proprie applicazioni su Internet tramite la sua piattaforma.

La piattaforma Azure poggia su tre pilastri:

– Windows Azure, il sistema operativo dove sono eseguite le applicazioni e dove sono mantenuti i dati nella cloud;
– SQL Azure, il database in cui vengono archiviati i dati della cloud;
– MS.NET Services, l’insieme di servizi web atraverso cui le applicazioni e i servizi esterni alla cloud si collegano e interagiscono con le applicazioni che si trovano all’interno della cloud.

Windows Azure può essere quindi scomposto in tre parti:

– Compute, che è il servizio che consente l’esecuzione delle applicazioni;
– Storage, che serve per mantenere i dati;
– Fabric, che è lo strumento per gestire e per monitorare le applicazioni che si trovano nella cloud.

Compute è stato progettatto per offrire lo scale out, ovvero la possibilità di eseguire più istanze del medesimo applicativo su più server.

“Se andiamo ad osservare meglio com’è fatto Compute, vedremo che ogni applicazioni per Azure può avere più istanze ed ognuna è eseguita sulla propria macchina virtuale” ha spiegato Chappell. “Ognuna di queste macchine virtuali gira su una versione di Microsoft Hyper-V ottimizzata per il cloud computing, e contiene un’installazione di Windows Server 2008 a 64 bit. Per eseguire la propria applicazione dopo averla caricata nella cloud, uno sviluppatore utilizzerà uno speciale file di configurazione ove indicherà quante istanze dovranno essere eseguite. A quel punto, Windows Azure creerà le macchine virtuali necessarie ed eseguirà l’applicazione”.

Queste macchine virtuali possono essere di due tipologie:

– Web, dedicata alle web application che richiedono IIS 7.0 e ASP.NET. Le macchine virtuali con questo ruolo possono accettare richieste in HTTP e in HTTPS;
– Worker, assegnata alle macchine virtuali che devono svolgere attività generiche (che non comprendano l’esecuzione delle web app) e che possono essere utilizzate per eseguire in background le elaborazioni richieste da quelle con ruolo Web. Queste macchine virtuali, a differenza dell’altro tipo, non accettano richieste di connessioni dal mondo esterno o dall’interno e l’unico modo con cui le altre macchine virtuali possono interagirvi è scrivendo dei messaggi nelle loro code.

“Se uno sviluppatore realizza ad esempio una web application che prevede l’interazione con un altro applicativo, e vuole eseguirne quattro istanze di ciascuna, nel file di configurazione indicherà che dovranno essere eseguite quattro istanze di macchine virtuali di tipo web e quattro di tipo worker”. L’analista ha quindi osservato che saranno supportati soltanto gli applicativi che girano in User Mode e non quelli in Admin Mode .

Storage, come suggerisce il nome, è il servizio di repository offerto per mantenere i dati degli applicativi come la tabelle, le bolle (contenitori usati per i dati di tipo binario) e le code in alta affidabilità e scalabilità. A proposito delle “tabelle” dello Storage, Chappell ha sottolineato che non bisogna farsi confondere dal nome perchè non sono le normali tabelle dei database relazionali. “Anche se hanno questo nome, i dati non sono organizzati in forma tabellare ma con una semplice gerarchia, ci sono soltanto delle entità che contengono delle proprietà. Il motivo per cui Microsoft ha scelto quest’approccio è che, rispetto a quello tradizionale, risulta molto più efficiente per lo scale-out dello storage: una tabella di Windows Azure può contenere miliardi di entità al cui interno sono presenti terabyte di dati”.

Sempre sulle strutture dati di Storage, Chappell ha osservato che mentre le bolle e le tabelle servono per memorizzare e accedere ai dati, le code servono per consentire alle istanze di tipo Web di scambiare messaggi con quelle di tipo Worker. Ad esempio, un utente potrebbe sottoporre una richiesta per eseguire un task che richieda parecchia potenza di calcolo attraverso una pagina web implementata da una istanza di tipo Web. Questa istanza, quando riceve la richiesta, scrive un messaggio nella coda dell’istanza Worker che descrive l’attività che deve essere espletata. L’istanza Worker, attende i messaggi con i task da eseguire e quando li trova, dopo averli completati restituisce il risultato: o su di un’altra coda o aprendo una connessione in uscita.

Tutte le applicazioni e i dati di Windows Azure sono fisicamente mantenuti in un data center di Microsoft. All’interno di questo data center, l’insieme delle macchine dedicato a Windows Azure è organizzato in una Fabric, la terza componente di Windows Azure.
Questi server sono gestiti da un software denominato fabric controller che gestisce i server attraverso i fabric agent , componenti software, installati nei server della Fabric. Agent controller , grazie alle informazioni che riceve dagli agenti, oltre a monitorare le applicazioni e a gestire i sistemi operativi, decide dove eseguire le nuove applicazioni, scegliendo il server fisico in modo da ottimizzare l’uso delle risorse hardware.

L’Agent Controller svolge quest’ultima attività utilizzando il file di configurazione preparato dallo sviluppatore, che indica quante istanze di macchine virtuali di tipo web o di tipo worker voglia utilizzare. Uno dei software Microsoft al quale è stata dedicata molta attenzione in previsione del prossimo anno è Sharepoint 2010, che nella strategia di BigM sarà la piattaforma di riferimento per la business collaboration sia per le aziende che per il web.

Secondo Richard Riley, group product manager di SharePoint, le novità a livello di infrastruttura IT che saranno presenti nella prossima versione di SharePoint 2010 si concentrano sulle tendenze identificate nel mercato. Nell’ambito del deployment, la parola d’ordine sarà 64 bit: SharePoint 2010 sarà infatti disponibile solo nella versione a 64 bit e sarà supportato solo su Windows Server 2008 SP2 e Windows 2008 R2 nelle versioni a 64 bit. Come database, saranno supportati soltanto SQL Server 2008 o SQL Server 2005 nelle versioni a 64 bit. È richiesto SharePoint 2007 con SP2 per l’aggiornamento, mentre Internet Explorer 6.0 non è più supportato.

Per mitigare eventuali criticità nel corso dell’attività di aggiornamento, con l’SP2 di Sharepoint 2007 Microsoft ha rilasciato un tool denominato Pre-Upgrade Checker (aggiornato lo scorso ottobre) che analizza la presenza di potenziali problemi. Riley, riguardo le strategie di aggiornamento da SharePoint 2007 a Sharepoint 2010, ha dichiarato che ne saranno supportate soltanto due:

– In-place Update: quest’approccio prevede che siano aggiornati i server e i database. La sua semplicità si paga con l’eventuale downtime della farm. È consigliato per le installazioni su singolo server o per farm di piccole dimensioni;
– Database Attach and Upgrade: con questo approccio vengono spostati soltanto i contenuti, non le impostazioni di configurazione. Il principale beneficio è che le farm Sharepoint 2007 restano disponibili. Questo scenario è consigliato per i deployment su farm di grandi dimensioni o nel caso di acquisto di nuovo hardware.

Riley ha quindi spiegato che, rispondendo alle esigenze dei clienti, in caso di aggiornamento il look and feel del sito resterà uguale, evitando che si possano creare dei siti “misti” overo che contengano sia aree con il nuovo look sia aree con il vecchio. Il group manager di Microsoft ha quindi precisato che in questo modo sarà l’amministratore del sito o della farm a decidere quando passare alla nuova interfaccia, e che in caso di anomalie sarà possibile tornare alla vecchia versione.

“Questo meccanismo non è una scusa per non pianificare con attenzione la migrazione a SharePoint 2010 e non è neanche una soluzione a lungo termine. Serve solo per consentire l’aggiornamento a SharePoint 2010 in tempi brevi, mantendendo il vecchio look e dando il tempo necessario per passare a quello nuovo”, ha aggiunto Riley.

Microsoft ha inoltre cercato di semplificare, rendere più sicura e “scriptare” l’installazione di SharePoint 2010. Rispetto alle versioni precedenti sarà infatti possibile:

– eseguire il SYSPREP;
– avviare il wizard di installazione partendo da un file di configurazione;
– usare PowerShell per l’installazione tramite script (sono previste 652 cmdlet di PowerShell per SharePoint);
– impedire tramite GPO l’installazione non controllata di Sharepoint (questa funzionalità è supportata solo se il sistema operativo client è Windows 7).

Anche sul fronte dell’amministrazione e della manteinance sono presenti alcune novità: la console di amministrazione via web risulterà più semplice e pulita per via dell’uso dei Ribbon contestuali come quelli presenti in Office 2007, e potranno essere delegati gli accessi su specifiche funzionalità. SharePoint Health Analyzer integra sia un manintenance engine che delle regole, azioni e avvisi che possono essere personalizzati. SharePoint è infine in grado di gestire le sue password e, nel caso integrazione con Active directory, utilizza le delle password applicate in dominio.

Riley ha infine osservato che sarà introdotto un nuovo protocollo che ottimizzerà il traffico di rete nello scambio di file tra i client ed il server. “Questo protocollo prevede tre modalità di interazione: nella modaità Cached, il file sarà riscaricato solo se è diverso rispetto a quello già presente; nella modalità Differential saranno salvati solo i cambiamenti; nella modalità chunking inizialmente saranno scaricate in locale solo le prime dieci slide di una presentazione PowerPoint”.

Giovanni Fleres

La tua email sarà utilizzata per comunicarti se qualcuno risponde al tuo commento e non sarà pubblicato. Dichiari di avere preso visione e di accettare quanto previsto dalla informativa privacy

  • ciao scrive:
    Domanda
    Non capisco perché seguendo la pagina linkata mi porta ad un kb di Microsoft dove l'ultima modifica é datata 19 maggio 2006.http://support.microsoft.com/kb/822158Cosa succede in redazione ?
  • gian duja scrive:
    La cosa che mi preoccupa di più
    di tutta la faccenda non è la lista delle cartelle considerate sicure, ma che esistano file il cui acXXXXX in lettura crea blocchi o problemi. Su sistemi piu' seri gli utenti niubbi si fanno il backup anche di /proc /sys o /dev e il sistema non fa una piega...
    • TheKaneB scrive:
      Re: La cosa che mi preoccupa di più
      credo proprio che si riferisca a possibili "file lock", magari il software antivirus potrebbe ritentare più volte, usando una qualche policy o un semplice timeout, ad accedere al file in questione, rallentando così la scansione antivirus (è di questo che si trattava), ma il sistema in se non farebbe comunque una grinza. Chi detiene il lock sul file in questione continuerebbe comunque a fare tranquillamente il suo lavoro, ciò che viene ostacolato è il programma antivirus che prova inutilmente ad aprire un file "lockato"Più o meno è quello che succede su linux se tenti di leggere il block device associato ad una partizione mentre questa è montata. Succede una cosa simile anche con la partizione di swap quando è attiva (swapon).
      • Sky scrive:
        Re: La cosa che mi preoccupa di più
        Forse con la differenza che, su un sistema Linux, un lock di quel genere non manda al 100% la cpu (o il core che esegue il thread), rendendo alla fine inutilizzabile il sistema: se è vero che "Chi detiene il lock sul file in questione continuerebbe comunque a fare tranquillamente il suo lavoro" è anche vero che se l'antivirus si pappa tutta la CPU diventa una gara a chi si piglia prima il lock (o a chi rende prima inusabile il sistema). ;)Mi spiace non poter fornire un vero dettaglio tecnico a quanto sopra, posso solo dire che, in ufficio (a casa non uso sistemi Win), quando l'antivirus effettua la sua scansione realtime io in pratica sto fermo ad aspettare che il sistema "torni indietro" nelle mie mani (AKA 100% cpu all'av e 0% a me)... se (io) fossi un guru si potrebbe tranquillamente parlare di "guru meditation". :D :D :D
        • paolista scrive:
          Re: La cosa che mi preoccupa di più
          - Scritto da: Sky
          Forse con la differenza che, su un sistema Linux,
          un lock di quel genere non manda al 100% la cpu
          (o il core che esegue il thread), rendendo alla
          fine inutilizzabile il sistema: se è vero che
          "Chi detiene il lock sul file in questione
          continuerebbe comunque a fare tranquillamente il
          suo lavoro" è anche vero che se l'antivirus si
          pappa tutta la CPU diventa una gara a chi si
          piglia prima il lock (o a chi rende prima
          inusabile il sistema).
          ;)L'antivirus si piglia tutta la cpu? Ho un pc dual core E6600 del 2007. Queste sono le mie risorse al momento della scansione:[img]http://i49.tinypic.com/eb4x05.jpg[/img]

          Mi spiace non poter fornire un vero dettaglio
          tecnico a quanto sopra, posso solo dire che, in
          ufficio (a casa non uso sistemi Win), quando
          l'antivirus effettua la sua scansione realtime io
          in pratica sto fermo ad aspettare che il sistema
          "torni indietro" nelle mie mani (AKA 100% cpu
          all'av e 0% a me)... se (io) fossi un guru si
          potrebbe tranquillamente parlare di "guru
          meditation". :D :D
          :DSei un troll, chi è troll non fornisce i dettagli. Secondo te il mondo mentre l'av fa la scansione aspetta come te? Chissà che macchina usi e soprattutto quale antivirus....
          • asdfgh scrive:
            Re: La cosa che mi preoccupa di più
            spero per lui che non usi Security Essential...
  • Emoticon e video scrive:
    Open Source
    Come da oggetto, questa è una informazione tipica del mondo open source. Quindi: - Se nessuno li conosce è un male in quanto la sicurezza non è basata sul black box. - Se tutti li sanno è un male perchè è più insicuro.Mettetevi d'accordo e siamo a posto...
    • Webbyit scrive:
      Re: Open Source
      Il problema è che qui tutti lo sanno ma nessuno può farci niente, nell'open-source tutti lo sanno e tutti possono fare qualcosa!
      • arto morto scrive:
        Re: Open Source
        - Scritto da: Webbyit
        Il problema è che qui tutti lo sanno ma nessuno
        può farci niente, nell'open-source tutti lo sanno
        e tutti possono fare
        qualcosa!E nessuno lo fa... e devi aspettare 2 mesi una risposta da un forum di gente come te... e non hai un numero di telefono da chiamare dove ti risponde qualcuno che ne ha un'idea... Mossa avventata... ma magari le directory indicate sono davvero sicure...
        • silviosanto subito scrive:
          Re: Open Source
          - Scritto da: arto morto
          - Scritto da: Webbyit

          Il problema è che qui tutti lo sanno ma nessuno

          può farci niente, nell'open-source tutti lo
          sanno

          e tutti possono fare

          qualcosa!

          E nessuno lo fa... e devi aspettare 2 mesi una
          risposta da un forum di gente come te... e non
          hai un numero di telefono da chiamare dove ti
          risponde qualcuno che ne ha un'idea...Si, si. Infatti la borsa di New York è passata a Red Hat Linux perché hanno trovato più conveniente passare il loro tempo sui "forum dei cantinari" piuttosto che telefonare a Ballmer e sentirsi dire "developer, developer, developer..."
          Mossa avventata... ma magari le directory
          indicate sono davvero
          sicure...Windows è sicuro solo dopo averlo formattato via dall'hard disk, magari a basso livello.
          • uno_qualunq ue scrive:
            Re: Open Source

            Windows è sicuro solo dopo averlo formattato via
            dall'hard disk, magari a basso
            livello.Che palle dover leggere sempre queste boiate, su questo sito.
        • gian duja scrive:
          Re: Open Source
          mi pare che canonical e red hat e suse offrano supporto a pagamento per linux. Sono sempre andato avanti coi post di aiuto sui forum, personalmente.
Chiudi i commenti