VMworld2012 : Avamar une solution de backup 100% intégrée à VMware vSphere5

Développée de concert par les équipes engineering EMC et VMware et intégrée dans VMware vSphere 5.1, la solution s’appuie sur la technologie EMC Avamar pour garantir des sauvegardes simples et efficaces de machines virtuelles. La déduplication en plus !! Adieu VDR …

le remplacement de VMware Data Recovery -VDR par vSphere Data Protection -VDP, une nouvelle technologie de sauvegarde et de restauration de VM basée sur la technologie Avamar d’EMC.

VMware a en fait choisi d’embarquer le savoir-faire de déduplication d’Avamar dans une nouvelle appliance de sauvegarde qui permet de gérer de façon centralisée les sauvegardes et les restaurations de jusqu’à 100 VM (avec un maximum de 2To de stockage physique consommé).

vSphere Data Protection s’appuie sur les API de sauvegarde de vSphere (VADP) et sur sa technologie de Changed Block Tracking, qui permet par analyse différentielle de suivre quels blocs de données ont été modifiés entre deux sauvegardes. Le logiciel couple ce support avec la technologie de déduplication d’Avamar pour réduire de façon conséquente les temps de sauvegarde et les volumes de données à transférer et à stocker. VDP ne nécessite l’installation d’aucun agent additionnel dans les VM (ce qui est aussi le cas pour Avamar) et l’administration s’effectue simplement via une interface web intégrée au nouveau client web d’administration. Notons pour les administrateurs vSphere que l’appliance nécessite la présence de vCenter Server 5.1, mais peut gérer la sauvegarde de VM déployées sur des serveurs ESXi 4.x ou 5.0.

  • VMware vSphere Data Protection est intégré avec vSphere, peut être mis en oeuvre aisément et être géré directement à partir du nouveau vSphere Web Client.
  • VMware vSphere Data Protection procure une protection optimale des données pour les environnements virtualisés de petites et moyennes entreprises, exploitant pour ce faire des technologies de sauvegarde et de déduplication.
  • VMware a recours au logiciel EMC Avamar en guise de technologie de base de sa solution VMware vSphere Data Protection.
  • VMware continue d’impliquer étroitement divers partenaires dans le développement de solutions de sauvegarde et de restauration qui s’appuient sur des API vSphere Storage for Data Protection.

Communiqué de presse:

EMC Corporation (NYSE: EMC) et VMware (NYSE: VMW) lancent VMware vSphere Data Protection™, une nouvelle solution de sauvegarde et de restauration destinée au VMware vSphere® 5.1 et qui s’appuie sur le logiciel de sauvegarde et de déduplication Avamar d’EMC®. La nouvelle solution est l’un des éléments constitutifs de VMware vSphere 5.1. VMware Sphere Data Protection remplace vSphere Data Recovery – qui était, précédemment, l’un des composants de vSphere – afin de conférer aux environnements VMware une protection de données plus conviviale, plus fiable et d’un meilleur rapport prix/performances.

VMware vSphere Data Protection a recours à la technologie des logiciels Avamar d’EMC, notamment à ses potentiels de déduplication de blocs de longueur variable, de support intégral de la fonction de Changed Block Tracking et de restauration s’effectuant en une seule opération. Ces potentiels ont pour effet de minimiser la consommation de ressources de stockage, de réduire les temps de sauvegarde et de garantir des restaurations rapides. VMware vSphere Data Protection peut être géré directement à partir du vSphere Web Client. La solution exploite les API vSphere Storage for Data Protection afin d’autoriser les sauvegardes sans agent.

Outre le lancement de VMware vSphere Data Protection, VMware fait progresser le développement de technologies novatrices de sauvegarde, destinées aux environnements virtuels, en procurant un support optimal à son vaste réseau de partenaires. VMware continue d’investir dans les API vSphere Storage for Data Protection afin de garantir une intégration transparente des technologies de sauvegarde et de restauration de fournisseurs tiers avec son VMware vSphere.

Citations:

Bogomil Balkansky, premier vice-président Cloud Infrastructure Products de VMware: “Les procédures de sauvegarde et de restauration représentent un aspect critique des implémentations de virtualisation. Le choix fait en faveur des technologies EMC Avamar nous permet d’offrir de meilleurs potentiels de sauvegarde et de restauration aux utilisateurs et ce, directement à partir de VMware vSphere®. VMware vSphere Data Protection™ procure une importante valeur ajoutée à nos clients et contribue dès lors à différencier encore davantage vSphere 5.1 des offres de la concurrence.”

David Vellante, co-fondateur du Wikibon Project: “L’intégration de la technologie Avamar dans VMware vSphere 5.1 permet aux utilisateurs d’exploiter un potentiel de sauvegarde et de restauration puissant, convivial et intégré, dans le cadre d’environnements virtuels. Les petites sociétés et les départements de grandes entreprises seront les principaux bénéficiaires de cette solution, de même que les organisations qui utilisent pour la première fois les technologies de virtualisation. En ajoutant ces fonctions à sa plate-forme, VMware a clairement donné une nouvelle dimension aux potentiels de sauvegarde et de restauration destinés aux environnements virtuels.”

William “BJ” Jenkins, président de la division Backup Recovery Systems d’EMC: “Avec des produits tels qu’ Avamar, Data Domain® et NetWorker®, EMC s’est ménagé une place de chef de file dans le domaine des sauvegardes et restaurations. Le logiciel de déduplication Avamar est accueilli avec enthousiasme par les utilisateurs VMware qui y voient une solution de sauvegarde et de restauration de niveau entreprise spécialement optimisée pour des environnements VMware. Grâce à l’intégration des fonctions Avamar dans VMware vSphere® Data Protection™, les utilisateurs VMware ont la certitude de pouvoir compter, tant maintenant qu’à l’avenir, sur un outil extrêmement efficace pour protéger leurs machines virtuelles.”

VMworld 2012 : L’innovation continue avec Pat et le BigData et la Virtualisation du Stockage

Pat Gelsinger, le nouveau* PDG de VMware, réaffirme que l’innovation est coeur de la stratégie de la société et qu’il continuera à faire des acquisitions.

* Pat Gelsinger a remplacé Paul Maritz à la tête de VMware depuis le 1er septembre… Paul Maritz prend la responsabilité de la stratégie chez EMC.

Les annonces faites sur la virtualisation du datacenter et sur l’entreprise mobile démontrent que l’innovation est le moteur de l’entreprise. Nous sommes en train de réinventer la façon de créer le datacenter en virtualisant l’ensemble de ses composants. Cela mobilise de l’énergie, des équipes d’ingénieurs pour intégrer l’ensemble de ces évolutions  réalisées en interne, mais aussi par de la croissance organique ». VMworld 2012 a montré une consolidation de ces projets au sein des suites annoncées, vCloud et Horizon.

Pat Gelsinger, CEO de VMware

Pat Gelsinger, CEO de VMware

Big Data et  virtualisation du stockage

Au cours de cet évènement, nous avons néanmoins entendu parler de deux projets, uniquement sur la partie infrastructure. Le premier projet s’appelle Serengeti, il s’agit d’optimiser Hadoop dans un environnement virtualisé.  Une démonstration vidéo est disponible sur YouTube où Hadoop est couplé avec la solution GreenPlum EMC et sur des NAS haut de gamme Isilon, deux autres branches du groupe EMC. L’objectif est de rendre  »scalable » les capacités de Hadoop au sein d’un cluster virtualité.

Le projet Serengeti de VMware
Le projet Serengeti de VMware

Un autre projet pour les infrastructures concerne le stockage. Avec la virtualisation du datacenter, l’éditeur suit attentivement les évolutions de cette brique. Lors de VMworld 2012, il a lancé des pistes de travail sur la virtualisation des LUN, à travers une solution baptisée vVolume. La mémoire flash via les SSD, mais aussi la mémoire cache des serveurs est matière à réflexion à travers la solution vCache. Plus globalement, la notion de vSAN a été également évoquée. Ces éléments ont juste été annoncés furtivement par Pat Gelsinger, lors de la présentation de vCloud Suite, sans donner plus de détails.

Des acquisitions toujours à l’étude

Les deux grandes annonces ont donc éclipsé ces différents projets, mais VMware place toujours l’innovation au coeur de sa stratégie. Pat Gelsinger a réaffirmé ce principe et indique que pour cela la société « continuera à faire des acquisitions ».Il reste bien évidement muet sur les profils des potentiels candidats.  Il souligne néanmoins la bonne opération avec le rachat de Nicira, qui est « pionnier dans la virtualisation du réseau et nous donne une position importante dans le domaine du SDN ». Au point d’inquiéter Cisco ? Non répond le dirigeant « nous avons un partenariat privilégié avec Cisco et nous travaillons avec lui sur les sujets réseaux au sein de VCE ».

VMware acquiert Nicira, spécialiste de la virtualisation réseau

Crédit Photo: D.R

Crédit Photo: D.R

Après les serveurs et le stockage, VMware s’empare d’une pépite de la Silicon Valley, Nicira. Pour 1,28 milliard de dollars, le fournisseur de solution de virtualisation ajoute la brique réseau à son portefeuille datacenter.

Poursuivant sa quête de virtualiser tous les aspects du datacenter, VMware vient d’acquérir pour 1,26 milliard de dollars Nicira, un pionnier de la technologie SDN (Software Defined Network) et un joyau de la Silicon Valley. « Je crois que nous avons la possibilité de faire la même chose pour les réseaux que ce que nous avons réalisé pour d’autres éléments du datacenter », précise Steve Herrod, CTO de VMware dans un blog. Le fournisseur de solutions de virtualisation va intégrer la technologie phare de Nicira, baptisée Open vSwitch, dans son portefeuille de réseau virtuel. Le logiciel de Nicira créé une couche d’abstraction entre les serveurs et les équipements réseaux, donnant aux entreprises la possibilité de découpler la topologie réseau des équipements, de créer des pools virtualisés de capacité réseau. La solution supporte une grande variété d’interface réseau, commutateurs, appliances, des API réseaux et des systèmes de type Fabric.

Une équipe pionnière dans OpenFlow

VMware va encourager les salariés de Nicira à continuer à travailler sur des projets réseaux Open Source. Il faut savoir que le travail de Martin Casado à Stanford, aujourd’hui CTO de Nicira, a conduit à la création d’OpenFlow, un catalyseur de réseau comme le définit le concept SDN (Software-Defined Networking). Ce protocole a été initié en 2007 par l’université de Stanford pour gérer les réseaux entre les campus universitaires. D’autres employés ont accompagné le développement de l’aspect réseau, connu sous le nom Quantum d’OpenStack.

La filiale d’EMC va payer 1,05 milliard de dollars en numéraire et 210 millions de primes  en actions. Nicira a été fondée en 2007 et elle est basée à Palo Alto en Californie.

EMC FORUM 2012 : UNE NOUVELLE VISION DE L’ENTREPRISE, DE L’IT ET DE VOTRE MÉTIER


Paris – 15 novembre 2012

Carrousel Du Louvre

EMC FORUM 2012 : UNE NOUVELLE VISION DE L’ENTREPRISE, DE L’IT ET DE VOTRE MÉTIER

Préparez vous pour l’EMC Forum version 2012 ! Cette édition 2012  va transformer votre vision de l’avenir de l’entreprise, de l’IT et de votre métier.

  • Découvrez pourquoi le cloud computing et la virtualisation sont essentiels pour faire face aux nouvelles réalités IT.
  • Découvrez comment vous pouvez optimiser votre business grâce au Big Data.
  • Approfondissez les connaissances, les compétences et découvrez les dernières innovations qui vous aideront à relever les défis à venir.

EMC Forum est une occasion unique de rencontrer vos paires mais aussi d’échanger avec les experts et intervenants EMC Français et internationaux, et d’assister à des témoignages et études de cas sur les dernières solutions intégrées d’EMC et de nos partenaires.

Vous pourrez également tester nos solutions en situation sur le vLab!

Inscrivez-vous dès aujourd’hui à EMC Forum 2012 pour ne pas manquer cet événement!

PARIS

Date : 15 novembre 2012

Horaire : 08:30 – 17:30

Lieu

Carrousel Du Louvre
99, rue de Rivoli
75001, Paris

Plan d’accès >>

 Rejoignez la Communauté
Gardez le contact avec EMC et suivez toutes les actualités d’EMC, de ses partenaires, mais aussi de vos homologues !
Suivez EMC sur les réseaux sociaux

FacebookTwitterFlickrYouTubeEMC Community Network

Les enjeux de l’administration du Stockage avec vSphere5

L’intégration avec VMware vSphere5 est un facteur important dans le choix des solutions de stockage, un sujet d’importance surtout pour les administrateurs. Aussi je vous fais partager le résultat d’une étude réalisée par Wikibon dont le but est d’analyser le niveau d’intégration des différents fournisseurs de solutions de Stockage avec les nouvelles API de stockage

Vous pouvez retrouver l’ensemble de l’étude sur : http://wikibon.org/wiki/v/VSphere_5_Storage_Integration_chips_away_at_Management_Overhead

VSphere 5 Storage Integration chips away at Management Overhead par Wikibon

Last Update: Aug 24, 2012 | 10:39
Viewed 2309 times | Community Rating: 5
Originating Author: David Floyer

Research done in collaboration with Stuart MinimanNick Allen and Ralph Finos

Contents

Introduction

The elephant in the room for virtualization and storage is the tension between the traditional storage vendors and VMware. The storage array vendors prefer that storage management look and feel the same way regardless of environment. The VMware administrators want to manage storage using VMware tools and terminology.

Many of the integration points in vSphere 5 are designed to reduce this tension. The result? It is still a journey, and VMware users should not expect the final level of integration they need. However, vSphere 5 brings significant improvements in integrating the two views of the world, as evidenced in our recent survey of users, where we found a high level of satisfaction with vSphere 5 storage-related features. Some of the hybrid NFS implementations show promise that a total level of integration at the application level can and will be achieved.

In June 2011, Wikibon publish a report entitled EMC and NetApp lead in VMware Storage Integration Functionality, which covered the storage integration functionality in VMware 4. In July 2012, VMware announced new storage features in vSphere 5, including a significant number of changes in how storage is integrated as well as additional features in View, VMware’s VDI technology. Some of the most important features are under the covers. VMware had previously integrated many storage integration features from a few vendors into the VMware kernel. This was unsustainable in the long run, both from the point of view of the number of vendors supported and (more importantly) from the exposure from foreign code to VMware stability. VMware defined a large number of storage integration APIs, which not only covered the traditional block storage, but file-based (NFS) storage as well.

Executive Summary

Integration is one factor in selecting storage and certainly not the whole story, but it is highly important for users. The purpose of this Wikibon research is to establish the level of integration against all the new VMware storage APIs for different vendors for two VMware environments: General Modular & Block-only (defined in detail in the following section). The two charts in Figure 1 & 2 below summarize the overall findings of our research.

Figure 1 – Wikibon vSphere 5 General Modular Storage Integration Assessment by Vendor Array (Maximum 100)
Source: Wikibon 2012, based on interviews with all manufacturers and Wikibon Ratings of Importance to VMware Installations

Figure 2 – Wikibon vSphere 5 Block-only Storage Integration Assessment by Vendor Array (Maximum 100)
Source: Wikibon 2012, based on interviews with all manufacturers and Wikibon Ratings of Importance to VMware Installations

The EMC VNX storage array leads in both categories. In the general category, the unified storage arrays such as the EMC VNX and NetApp FAS series do well, as they have integration features applicable to both block and file. The EMC VMAX is the first of the block-only vendors, with HP 3PAR and Dell Compellent in a statistical dead-heat for fourth place. Despite the availability of the vSphere APIs to simplify the development process, both IBM and Hitachi do not seem to have invested in implementing the new APIs. Perhaps they are saving that investment for new storage hardware.

In the block storage category, the EMC VNX and EMC VMAX are clear leaders, with the NetApp FAS array in third position and HP 3PAR in fourth. The same comments about IBM and Hitachi are also true for this category.

In general, higher levels of integration should equate to lower costs of management. Of course, many other factors need to be taken into account, including what is currently installed, levels of performance required, and the availability of functionality such as replication and tiered storage.

Arrays Analyzed

Wikibon Analysis of 12 different traditional arrays included:

  • Dell Compellent & EqualLogic
  • EMC VMAX & VNX
  • Hitachi AMX & VSP
  • IBM DS 8000, StorWize V7000 & XIV
  • HP 3PAR & LeftHand
  • NetApp FAS Series

We also looked at two hybrid arrays (non-oversubscribed) from Nimble and Tintrí. We did not do a detailed analysis of these hybrids, but Wikibon believes the best implementation of application-based VMware storage is to be found in the Tintrí NFS implementation. This is probably a harbinger of what the final integration will look like. Even though no Nimble or Tintri customers were in the survey, 10% of respondents voted them as the best VMware platforms.

Methodology

For our current study, we defined two groups of storage (compared with three in the 2011 study). They were:

  1. General VMware Modular Storage, including block & file-based storage. This is roughly equivalent to the Tier 2 definition in the 2011 study with the addition of file-based services. Our surveys and in-depth interviews indicated that this was the “sweet spot” of VMware storage.
  2. Block-only VMware Storage. This base was set at a higher functionality, performance and reliability standard than the modular storage, but was block only.

Wikibon also looked at an NFS-only category, but we have left detailed analysis of this category for another occasion.

Wikibon created an initial list of integration features and put them into six groups. We then asked each vendor whether the feature was available or not and whether the vendor had implemented any specific features not covered by the list. We ended up with 57 integration points for the General VMware Modular storage case (nearly twice the 2011 study), and 50 integration points for the block-only VMware storage case.

The groups and the factors within them were then assessed and weighted for importance. The two tables below show the weightings for the six groups for general and block-only storage. Table 5 shows the full table in the footnotes.

Table 1 – Group Importance Weighting for General Modular VMware Storage (Maximum 100)
Source: Wikibon 2012; See Table 5 for detailed element analysis in the footnotes

Table 2 – Group Importance Weighting for Block-only VMware Storage (Maximum 100)
Source: Wikibon 2012; See Table 5 for detailed element analysis in the footnotes

Detailed Results

Figures 3 & 4 show the detailed results for general modular and for block-only storage by vendor and group. Figure 5 shows the results for unified storage offerings. The charts show that we gave greater weight to data protection, performance, and management.

Figure 3 – Assessment by Group by Vendor of General Modular VMware Integration in vSphere 5 (Maximum 100)
Source: Wikibon 2012

Figure 4 – Assessment by Group by Vendor of Block-only VMware Integration in vSphere 5 (Maximum 100)
Source: Wikibon 2012

Figure 5 – Assessment by Group by Vendor of Unified Storage VMware Integration in vSphere 5 (Maximum 100)
Source: Wikibon 2012

 

Conclusions

The overall conclusion is that the leading vendors have implemented strong integration features with VMware. However, this is far from the end of the journey. The journey-end can be glimpsed by looking at the Tintrí operating panel, where all the information about the storage used by an application is available to the operator in great detail, and where LUNs don’t exist. Wikibon estimates we are about half way on the journey to full integration of VMware storage at the application level with full management and analysis detail. In the meanwhile, EMC and NetApp continue to lead in VMware storage integration in vSphere 5.

Action Item: Users should use these findings to help understand what integration features are available, and which vendors have installed them. They should then use their own weightings in assessing the potential benefit of these features in their environment, in conjunction with the other factors already on their evaluation list. Wikibon would be happy to assist individual organizations that would like to run the numbers against there own evaluation weightings.

Footnotes: Also see Wikibon 2012 vSphere 5 Survey shows Customer Satisfaction and Rapid Adoption

Wikibon’s 2011 VMware Storage Integration Journey Checkpoint of vSphere 4.x (research and survey summary)

Wikibon’s 2010 The Value of the VMware Integration Journey

Table 5 –Importance Weighting of VMware vSphere 5 Storage Integration Features for General Modular and Block-only VMware Storage (unnormalized)
Source: Wikibon 2012

 

Table 6 – Vendor Implementation Table of VMware Integration Features
Source: Wikibon 2012

Face au Cloud : évolutions des compétences indispensables !

Le quotidien du responsable informatique d’une entreprise s’apparente à un combat de tous les instants. Le département informatique tout entier subit une transformation en profondeur. Les responsables doivent acquérir de nouvelles compétences et le personnel a besoin de nouvelles formations pour adopter le modèle IT-as-a-Service.

FAIRE FACE À LA CONCURRENCE

Abordons les choses dans l’ordre. Nous entendons fréquemment parler de l’IT-as-a-Service et d’une transformation qui va dans le sens d’une structure orientée services. Alors, quelle est la différence entre le modèle traditionnel dans une entreprise et un département orienté services ?

Je crois qu’il est important de voir plus loin que simplement l’informatique et surtout, de réfléchir à la relation qui existe entre l’entreprise et le service informatique interne. De plus en plus d’utilisateurs métiers considèrent que leur service informatique interne n’est pas l’unique solution pour répondre à leurs besoins. Ils sont plus que jamais disposés à trouver de meilleures solutions, généralement auprès de fournisseurs de services tiers. Le service interne est désormais perçu comme l’un des fournisseurs potentiels ; il ne détient plus le monopole comme par le passé. Si l’on n’y prend garde, une forme « d’informatique parallèle » se développe et pousse les utilisateurs métiers à s’éloigner du département informatique interne pour s’approvisionner ailleurs.

Bien entendu, celui-ci peut tenter de freiner ce comportement en appliquant des règles draconiennes pour les achats informatiques, par exemple, ou en sollicitant la mise en place de règles similaires de la part de la direction. Quoi qu’il en soit, cela ne fait que retarder l’inévitable : tôt ou tard, les départements informatiques devront apprendre à lutter pour conserver leurs clients internes. Ce qui me surprend, c’est que ces départements informatiques existent au sein d’entreprises elles-mêmes incroyablement compétitives. L’idéal serait donc de propager ce même état d’esprit concurrentiel au département informatique.

Nous commençons à utiliser l’expression « orienté services » pour décrire les départements informatiques qui se comportent comme des fournisseurs de services compétitifs et s’éloignent du fonctionnement traditionnel basé sur les projets et la technologie. La structure organisationnelle est différente, de nombreux rôles et compétences associés sont différents, tout comme les mesures et les indicateurs.

Avec un autre angle de vue, on peut dire que les fournisseurs de services concurrentiels ont accès aux mêmes technologies et pools de talents que les départements internes, mais que ce qui les différencie, c’est le modèle.

Avec le temps, de plus en plus de départements informatiques internes vont devoir agir comme leurs concurrents externes et se préparer à rivaliser pour les utilisateurs de l’entreprise.

APPRENDRE DE NOUVEAUX ADVERSAIRES

Ainsi, les intégrateurs de systèmes traditionnels et les fournisseurs de services, autrefois alliés du responsable informatique, sont devenus ses adversaires. Qu’est-ce que le département informatique peut apprendre de ces nouveaux concurrents ?

Les fournisseurs de services ont l’habitude de la concurrence. Par exemple, ils s’entourent d’unités de vente et de marketing, alors que les départements informatiques internes n’y songent même pas. Ils consacrent beaucoup de temps à l’étude des services souhaités par les clients et ne cessent d’améliorer leurs offres. Pour fournir leurs services plus efficacement, ils se lancent dans une course effrénée à la standardisation des technologies et des processus. Encore une fois, les départements informatiques internes ne sont pas rompus à ce genre d’exercice.

Les fournisseurs de services informatiques concurrentiels investissent dans des méthodes qui incitent à consommer leurs services. En comparaison, seules quelques (voire aucune) ressources d’un département informatique d’entreprise s’emploient à stimuler la consommation des services internes. En général, elles se retrouvent plutôt en position de décourager la consommation informatique, ce qu’un fournisseur externe ne ferait jamais.

Aujourd’hui, il est peu probable qu’un département informatique classique charge une équipe dédiée d’améliorer continuellement son catalogue de services dans l’espoir de favoriser la consommation. Et malgré les efforts mis en place, nous assistons en général à une standardisation implacable de la technologie et des processus de la part des fournisseurs de services, qui vont beaucoup plus loin que leurs homologues en entreprise.

Mais cette attitude est précisément celle que doivent adopter les fournisseurs de services pour augmenter leurs parts de marché.

Et si, comme moi, vous pensez que tôt ou tard, les départements informatiques d’entreprise devront se battre pour garder leurs clients internes, vous en arriverez à penser qu’ils doivent utiliser les mêmes armes.

L’autre point qui a son importance est le changement de mentalité. Dans un monde idéal, le département informatique serait un «créateur-vendeur» qui comprend les besoins de ses clients internes et les oriente vers la solution adaptée : un service fourni en interne ou sous-traité par le département informatique.

TROUVER DES RÉPONSES AUX QUESTIONS FONDAMENTALES

Lorsqu’il m’arrive de discuter de tout ceci avec des responsables informatiques, certains me répondent qu’ils agissent déjà ainsi. Ils fournissent des services aux utilisateurs métiers et, par exemple, sont capables de rendre un nouvel utilisateur opérationnel très rapidement.

C’est possible. Je me retrouve dans les mêmes discussions et en général, ils insistent sur le fait qu’ils peuvent rapidement provisionner une machine virtuelle, ou encore une adresse réseau ou tout autre élément obscur de la pile informatique.

Je crois qu’il est important de souligner ici qu’il s’agit uniquement de quelques composants, et non du service même, surtout si l’on se place du point de vue des consommateurs de ces services.

Prenons un exemple : il n’y a pas si longtemps, pour utiliser un iPad chez EMC, il vous fallait parler au gestionnaire du réseau, au responsable de la messagerie, à l’équipe sécurité, etc. Si vous suiviez le processus à la lettre, vous arriviez tôt ou tard à vos fins. Mais tout ceci était aussi frustrant pour l’utilisateur et pour le département informatique.

Comparons avec ce qui se passe maintenant : si vous utilisez un iPad, notre équipe informatique vous offre un service complet, avec tout ce qu’il vous faut, une sorte de « service centralisé », beaucoup plus facile à utiliser et qui évite d’avoir à courir à gauche et à droite pendant des jours ou des semaines. Je pense aussi que tout est plus facile pour l’équipe informatique.

Il me semble également important de souligner que dans bien des cas, le principal consommateur de services informatiques est justement le département informatique. Nous avons remarqué que les projets informatiques des grandes entreprises évoluent plus rapidement lorsqu’ils sont soutenus par un catalogue étoffé de services à la demande à l’intention des professionnels de l’informatique concernés. Même si vous décidez de conserver l’interface traditionnelle orientée projets entre l’informatique et l’entreprise, il est largement possible d’organiser les fonctions associées selon le modèle IT-as-a-service.

Lorsque vous commencez à envisager l’IT-as-a-service, quelques questions fondamentales très épineuses se posent.

Comment identifier et créer ce service ? Comment le justifier et le payer ? Comment le mettre à jour et l’améliorer en permanence ? Comment le commercialiser et le mettre en valeur auprès des utilisateurs potentiels ?

Nous en arrivons aux défis les plus intéressants, car ils impliquent une nouvelle fonction qui n’existe que dans très peu de départements informatiques.

DÉVELOPPER DE NOUVELLES COMPÉTENCES NON TECHNIQUES

Venons-en au coeur du problème : les principales compétences requises pour le directeur informatique et son équipe. Est-il possible de conserver la même équipe, ou devons-nous rechercher de nouveaux profils ?

Je crois que l’on peut définir deux catégories : les domaines où il est possible d’intégrer les rôles existants en les faisant évoluer, et ceux qui nécessitent de tout nouveaux rôles. La seconde catégorie est sans conteste plus problématique que la première.

Si vous disposez déjà d’une équipe efficace dédiée à la virtualisation, sachez que les personnes qui la composent sont généralement tout à fait compétentes pour le passage au modèle de fournisseur de services cloud, tout au moins du point de vue technologique. À titre d’exemple, EMC propose une certification « architecte du cloud » destinée aux architectes expérimentés maîtrisant la virtualisation, le stockage, la mise en réseau, la sécurité, etc., qui les aide à concevoir les modèles dont ils ont besoin pour créer des pools d’infrastructure partagés de grande taille.

Autre exemple : l’ingénierie des processus. Si vous disposez d’une solide équipe chargée de l’ingénierie des processus, il ne sera pas très difficile de la former aux processus de gestion clés du nouveau modèle. Évoquons également les responsables de projets applicatifs qui organisent les tâches autour de projets spécifiques. Ils doivent apprendre à utiliser et consommer des services du catalogue au lieu de s’en tenir à leurs propres environnements dédiés.

Dans cette optique, nous avons mis en place une formation sur les concepts du cloud pour le personnel informatique en général afin qu’il se rende compte de la nouvelle tournure des événements.

Il s’agit sans doute de domaines relativement familiers pour le département informatique, ces compétences étant d’une nature encore assez technique. Mais il existe probablement d’autres domaines plus difficiles à aborder, car entièrement nouveaux.

C’est vrai. C’est le cas, par exemple, de la fonction d’analyste métier, qui sert d’interface clé entre le département informatique et l’entreprise. Traditionnellement, ces personnes transmettent les exigences et l’état d’avancement des projets entre les différents services. Avec la nouvelle organisation, elles représentent désormais la force de vente du fournisseur de services informatiques interne. Il s’agit d’un profil très différent qui fait plus appel à des qualités d’engagement qu’à des connaissances étendues.

Autre exemple : l’équipe chargée de définir et d’améliorer en continu les offres du catalogue de services. Autrement dit, les gestionnaires de produits qui essaient d’anticiper les souhaits des consommateurs. Ici aussi, on parle de compétences que l’on ne trouve pas dans la configuration traditionnelle d’un service informatique, mais tout à fait courantes dans la sphère commerciale.

Suivant la nouvelle tendance, le modèle financier de l’informatique est lui aussi très différent : l’objectif du département informatique est de créer les services recherchés par les consommateurs plutôt que de limiter leur consommation, ce qui, lorsqu’on y réfléchit, ne devrait pas faire partie de ses prérogatives. Le département informatique devrait exclusivement se consacrer à créer des services attractifs et compétitifs. Dans l’idéal, le département financier devrait être chargé de rationner la consommation informatique, de la même manière qu’il rationne les dépenses de personnel, les déplacements et d’autres postes économiques.

Je pourrais citer d’autres exemples, mais je pense que vous avez saisi l’essentiel. L’un des services les plus recherchés que nous proposons aide nos clients à évaluer leurs pools de talents et niveaux de maturité actuels en vue de quantifier les efforts et l’investissement qu’ils devront mettre en oeuvre.

Le plus problématique, c’est d’établir une séquence de modèles organisationnels qui autorise une progression logique du modèle informatique actuel vers le modèle émergent, orienté services. Comme la plupart des séquences organisationnelles, elles sont quelque peu différentes, même si elles comportent des éléments structurels similaires.

ALLER DE L’AVANT

Voilà qui ressemble presque à un changement radical. Comment encourager le personnel informatique à aller de l’avant et à acquérir ces compétences non techniques ?

Comme vous vous en doutez, la réponse n’est pas simple. Parler ouvertement de la transformation de l’informatique (et des nouvelles opportunités de carrières qui en découlent) est certainement un pas dans la bonne direction.

Le département informatique interne d’EMC s’est vu dans l’obligation de créer des descriptions de postes, évolutions de carrière et modèles de rémunération complètement nouveaux, et nécessaires pour inciter le personnel à acquérir des compétences transversales. À ce moment-là, il n’existait pas beaucoup de modèles externes sur lesquels se baser, mais j’espère que la situation s’est améliorée entre-temps.

Comme la plupart des départements informatiques ne peuvent pas se permettre d’engager du nouveau personnel en nombre, une approche plus progressive consiste à ne pas remplacer un rôle par le même lorsqu’il y a des départs. En d’autres termes, les ressources que vous engagez doivent renforcer le nouveau modèle et non perpétuer l’ancien. Le fait que les rôles de l’ancien modèle cèdent la place à de nouveaux rôles a déjà à lui seul un effet stimulant.

SEULES LES PERSONNES COMPTENT

Il semble bien qu’une grande partie du personnel informatique soit vouée à délaisser son rôle technique en faveur d’un poste basé sur des qualités de consultant. Certains y voient une injustice : la technologie ne constitue-t-elle pas un avantage concurrentiel ?

Je comprends cet état d’esprit, mais à moins d’être effectivement consommée par le département informatique, la technologie reste un avantage théorique et non pratique.

Récemment, nous avons réuni plus de 100 responsables informatiques pendant deux jours pour discuter de la transformation de l’informatique. Tout le monde s’est accordé à dire que la technologie n’est plus le facteur limitant ; il y a bien suffisamment de technologies éprouvées pour prendre en charge les nouveaux modèles.

La vraie question qui était dans tous les esprits concernait les personnes : quels talents, quelles compétences et quels rôles, quel modèle organisationnel et surtout, comment mettre tout cela en place de façon logique et la moins dérangeante possible ?

Bien qu’il n’y ait pas de réponse simple, nous commençons à discerner des schémas récurrents dans l’expérience des personnes qui opèrent des transformations vers une orientation métier axée sur les services. Notre équipe informatique EMC a même créé un acronyme : SOOA (service-oriented organizational architecture), qui signifie architecture organisationnelle orientée services, pour décrire le nouveau modèle et ses différences par rapport à l’ancien.

Certains débattent pour savoir s’il s’agit d’une révolution ou seulement d’une évolution informatique. J’aurais tendance à opter pour l’évolution, soit la conséquence naturelle du fait que l’informatique est sans cesse plus indispensable aux business models et que les consommateurs se rendent compte qu’ils ont encore plus de choix attractifs à leur disposition.

Étiquettes :

Les architectures NAS en cluster séduisent de plus en plus les entreprises?

Alors que le volume de données non structurées progresse à un rythme exponentiel dans les entreprises, une technologie de stockage séduit de plus en plus les responsables informatiques. Il s’agit de la technologie NAS en cluster aussi appelée scale-out NAS. L’intérêt pour cette technologie est principalement liée à son évolutivité et à sa simplicité. Elle promet en effet aux entreprises de pouvoir faire évoluer leur capacité de stockage d’une façon quasi illimitée, par simple ajout de nœuds de stockage additionnels à leur infrastructure existante et ce sans avoir à remplacer l’infrastructure d’origine. Ce concept simple est aujourd’hui mis en œuvre dans un nombre croissant de systèmes et séduit de plus en plus les acheteurs de systèmes de stockage de données.

Un système de stockage évolutif assemblé à partir de multiples noeuds physiques

Le principe même d’un système de stockage NAS en cluster est qu’il se compose de plusieurs nœuds physiques reliés entre eux par des interfaces réseaux rapides (Infiniband ou 10 Gigabit Ethernet) et assemblés en un seul système de stockage NAS logique par le biais d’un système d’exploitation en général propriétaire. Du fait de sa nature « scale-out », un système de stockage NAS en cluster évolue par simple ajout de nœud. Cette opération permet à la fois d’augmenter la capacité du système mais aussi ses performances ainsi que, dans certains cas, sa tolérance aux pannes. Les plus évolutifs des systèmes de stockage en cluster ont la capacité de gérer plusieurs Petaoctets de données sur plus de 100 nœuds, mais ils sont accessibles et gérés comme un seul système grâce à l’utilisation d’un système de fichiers distribués ou d’un système d’espace de nommage global.

Un système de stockage NAS en cluster se compose typiquement de multiples nœuds de stockage x86 disposant d’une configuration standard (quantité fixe de CPU, de mémoire cache et de disques durs). Lorsque la capacité du système approche la saturation, l’entreprise peut faire évoluer sa configuration existante en ajoutant simplement de nouveaux nœuds au cluster existant. Cette approche évolutive est particulièrement adaptée aux entreprises devant gérer de grandes quantités de fichiers, mais elle séduit aussi de plus en plus des entreprises ayant des besoins de stockage généralistes. Le scale out NAS permet en effet des migrations en douceur, plus simplement que les systèmes traditionnels.

Architecture typique d’un système NAS en Cluster EMC Isilon (ici l’architecture inclut un cluster performant à base de noeuds Isilon S200 et un second cluster à base de noeuds Isilon NL relié au premier par un lien WAN pour l’archivage et la reprise après sinistre).

Historiquement, les systèmes de stockage NAS en cluster ont connu leurs premiers succès dans le monde des applications nécessitant des bandes passantes et un débit élevé, notamment dans les secteurs des médias, du divertissement, du calcul à haute performance, de la bio-informatique, et dans le secteur de la recherche pétrolière et gazière. Mais ce succès s’étend désormais bien au delà de ces secteurs. Les premiers systèmes scale-out n’étaient en effet pas optimisés pour les applications traditionnelles d’entreprises, mais les évolutions apportées récemment par certains spécialistes du genre comme la division Isilon d’EMC, promettent d’ouvrir ces systèmes à un panel d’usage bien plus large, comme la virtualisation.

Une adoption qui s’accélère dans le monde des applications d’entreprise

Terri McClure, un analyste senior chez Enterprise Strategy Group (ESG) à Milford, explique ainsi qu’au fur et à mesure que les constructeurs optimisent leurs systèmes pour obtenir de meilleurs résultats avec les applications d’entreprises, les architectures NAS en cluster apparaîssent de plus en plus dans les datacenters d’entreprise.

Le leader emblématique du secteur Isilon Systems, racheté par EMC à la fin 2010. Isilon propose trois options de nœuds différentes pour ses systèmes en cluster : les nœuds de la série S sont conçus pour délivrer des performances élevées pour les applications nécessitant des grands volumes d’entrées/sorties sur de petits fichiers ; les X-Series sont des nœuds intermédiaires conçus pour le stockage d’un moins grand nombre de fichiers plus volumineux ; enfin les NL-Series sont des nœuds très capacitifs et économiques conçus pour l’archivage et le stockage en volume de grandes capacités de données. En l’état de la technologie, un système Isilon peut comprendre jusqu’à 144 nœuds pour un total de 15,5 Po de données, stockées dans un système de fichiers unique, ce qui simplifie grandement l’administration. Côté performance, un système à base de nœuds S200 équipé en partie de disques SSD a une capacité maximale inférieure (2 Po), mais offre une bande passante agrégée de 85 Gbit/s et peut traiter 1,2 million d’IOPS NFS, encore une fois avec seul système de couvrant un cluster de 144 nœuds.

Si Isilon est parti avec une bonne longueur d’avance, tous les constructeurs s’intéressent aujourd’hui au monde du stockage en cluster et nombre d’analystes font le pari que cette technologie détrônera à terme les systèmes de stockage NAS traditionnels. Randy Kerns, un analyste chez Evaluator Group à Broomfield, Colorado, est un peu plus prudent et estime qu’il y a beaucoup de cas d’utilisation où les clients préféreront des NAS traditionnels, notamment pour les plus petites configurations. « Il y a de la place pour les deux », a déclaré Kerns. « Je pense que les systèmes scale-out NAS et les NAS traditionnels sont tous les deux là pour longtemps ».

Étiquettes :