Archive

Archive for the ‘DataCenter’ Category

La révolution du stockage est en route : Quelle vision technologique pour EMC en 2013 ?

A l’occasion d’EMC Forum 2012, Sébastien Verger, notre CTO EMC France, a levé le voile sur les évolutions de l’offre EMC attendues pour 2013 en mettant l’accent, sans trop de surprise pour les amateurs de stockage EMC, sur l’intégration de la technologie Flash de bout en bout entre serveurs et baies de stockage…

La mémoire Flash va jouer un rôle clé dans la transformation des architectures de stockage des prochaines années. C’est ce que Seb a pointé du doigt pendant le keynote  d’EMC Forum 2012 qui se tenait à Paris, au Carrousel du Louvre le 15 novembre dernier.

La raison fondamentale de l’importance de la Flash tient à une question d’architecture des systèmes informatiques : si la performance des processeurs a explosé au cours des dernières années, celle des disques durs n’a pas suivi ce qui fait que le stockage est devenu un goulet d’étranglement pour les performances.

Un goulet qu’il est possible de faire disparaître avec la mémoire Flash.

1

L’impact de la Flash sur les systèmes de stockage est lié à ses caractéristiques uniques en matière de rapport performances/prix.

Pour se faire une idée du fossé qui s’est creusé entre stockage et « compute » il suffit de comparer le temps d’accès d’une mémoire vive, d’un disque dur et d’une mémoire Flash. La première a un temps d’accès de 2 nanosecondes, tandis que le second a un temps d’accès typique de 5 à 6 millisecondes (pour un disque SAS) et du double pour un disque SATA.

Une mémoire Flash de dernière génération, de son côté, a un temps d’accès de l’ordre de 60 nanosecondes. Ecrit ainsi les différences ne sont pas parlantes mais si on les ramène à une échelle plus courante la différence est criante : posons comme hypothèse que le temps d’accès de la mémoire vive est de 1s, ce qui nous amène, en gardant les mêmes proportions, à un temps d’accès pour la mémoire Flash de 30s alors qu’il estde 28 jours et 23 heures pour un disque dur SAS ! Cela veut dire qu’au lieu d’attendre 1s pour atteindre une donnée en mémoire vive, le processeur doit attendre 30s, s’il doit la chercher dans une carte flash locale et près d’un mois s’il lui faut aller la lire sur le disque dur… Le pire est que ce différentiel va croissant : le temps d’accès aux mémoires continue de s’améliorer, tandis que celui des disques durs n’a plus évolué depuis bientôt dix ans. Comme l’explique Sébastien Verger, l’ironie est que les utilisateurs comprennent bien la différence, en tout cas ceux qui ont équipé leur ordinateur d’un SSD, le simple remplacement du disque dur par un disque à mémoire Flash apportant une amélioration des performances sans commune mesure avec celle permise par l’utilisation d’un processeur plus rapide.

2-1

Un usage judicieux des disques SSD permet d’améliorer considérablement la performance d’une baie de stockage tout en réduisant ses coûts.

Fort de ce constat, EMC entend utiliser au mieux les bénéfices que procure la mémoire Flash sur l’ensemble de la chaine reliant serveurs et stockage. Le premier étage auquel EMC a appliqué la technologie est bien évidemment les baies de stockage. Selon Sébastien, il suffit d’installer 2,5 à 10% de la capacité d’une baie de stockage en disques SSD pour doper de façon significative les performances, tout en abaissant les coûts et la consommation électrique.

L’utilisation de disques SSD permet en effet d’éliminer le recours à des disques SAS coûteux mais aussi très gourmands en énergie et de les remplacer par des disques SATA. Le système de tiering des baies permet alors de cibler les opérations d’I/O les plus intensives vers la Flash et d’utiliser le pool de capacité SATA pour le stockage « à froid » des données.

Actuellement, plus de 60% des baies VNX et VNXe vendues embarquent un étage de stockage Flash.

perspective

La baie 100% Flash « Project X » promet des performances explosives couplées à une très grande simplicité d’utilisation

L’étape suivante sur le marché des baies de stockage est l’arrivée d’une nouvelle catégorie de systèmes de stockage basés à 100% sur la mémoire Flash afin d’offrir des performances aussi élevées que possible. Comme l’explique Sébastien, c’est le « Project X » d’EMC, qui s’appuie sur la technologie rachetée à l’Israélien XtremIO.

La baie de stockage qui en résultera promet des performances inconnues à ce jour, à savoir plus d’un million d’IOPS soutenus, et ce quel que soit le type d’application. La baie combine l’usage de la Flash comme support de stockage avec un usage systématique de la déduplication de données (afin de minimiser l’usure de la Flash mais aussi d’optimiser l’usage de la capacité). Son architecture étant basée sur un concept scale-out, la performance augmente avec le nombre de nœuds dans le cluster de stockage. L’objectif est aussi de faire en sorte que la baie s’auto-optimise de telle sorte qu’elle ne nécessite ni tuning ni allocation manuelle de ressources.

Olivier Parcollet, architecte IT chez Keolis, par ailleurs connu pour son rôle au sein du groupe utilisateurs de VMware, est venu témoigner de son utilisation d’un prototype de la baie ProjectX lors d’EMC Forum. Avec deux nœuds, Olivier Parcollet indique « que le niveau de performance est assez bluffant ».

Lors de tests de montée en charge, Keolis a ainsi pu obtenir plus de 200 000 IOPs avec une latence d’1 ms, sur l’ensemble des volumes depuis un seul serveur vSphere 5 sur une carte bi-canal FC 4Gb/s. Et on rappelle que ce n’était qu’avec deux nœuds et une version prototype loin d’être finalisée…

Gérer la performance en optimisant l’usage de la Flash de bout en bout Si EMC continue à développer les usages de la Flash dans les baies de stockage, nous mettons aussi l’accent sur le bon usage de la Flash sur l’ensemble de la chaine reliant les serveurs au stockage.

Nous avons ainsi fait un premier pas dans le monde des serveurs en introduisant cet été la carte VFCache. Cette carte PCI-express Flash s’installe directement dans le serveur qui accède aux données, et elle offre des performances optimale car le bus sur lequel elle est installée (PCI Express) a une latence bien inférieur aux connexions SAN. et sur un bus qui n’est pas un goulet d’étranglement. Elle peut être utilisée à la fois comme un étage de stockage local à très hautes performances ou comme un cache vers les données stockées sur les baies de stockage. La proximité de la Flash du processeur permet notamment de minimiser la latence d’accès et de répondre aux besoins des applications les plus sensibles à la latence comme les applications transactionnelles, les bases de données… Les tests menés sous Oracle ont ainsi montré des gains de performance de l’ordre d’un facteur de trois. L’un des problèmes de l’usage des cartes PCIe Flash est toutefois leur coût. EMC travaille donc à une appliance de cache partagée baptisée « Thunder » dont l’objectif est de permettre la mutualisation de plusieurs cartes Flash VF Cache par un grand nombre de serveurs. « Thunder » s’appuiera sur un bus de communication rapide comme Infiniband pour communiquer avec les serveurs et minimiser ainsi au mieux l’impact du bus de connexion sur la latence. L’idée est de servir de cache partagé et sécurisé pour un groupe de serveurs en frontal des baies de stockage SAN.

3

Des technologies qui pourront être déployées individuellement ou conjointement avec un degré d’optimisation supplémentaire grâce à l’utilisation de la technologie FAST de bout en bout. Ces technologies pourront bien sûr être déployées de façon autonome.

Mais EMC travaille à coordonner leurs bénéfices individuels au sein d’une architecture optimisée. L’idée est d’appliquer la technologie de tiering FAST de bout en bout entre les serveurs et les baies de stockage par exemple pour pré-peupler le cache d’une carte VFCache avec des données d’une baie de stockage. L’objectif est bien sûr d’assurer une protection maximale des données tout en optimisant encore un peu plus les performances.

RecoverPoint et VPLEX à l’honneur en 2013

La mémoire Flash n’était toutefois pas la seule technologie à l’honneur lors de l’intervention de Sébastien à EMC Forum.

Ce dernier a aussi mis en avant la technologie de réplication continue RecoverPoint, de plus en plus utilisée par les clients pour protéger leurs environnements de stockage et garantir un redémarrage aussi rapide que possible avec aussi peu de pertes de données que possible en cas de sinistre sur leur centre informatique primaire. L’année 2013 devrait voir la généralisation du support de RecoverPoint à l’ensemble des gammes EMC (la technologie est déjà supportée sur VNX et VMAX).

4-1

VPLEX rend possible la mise en oeuvre d’architectures virtualisées distribuées entre deux datacenters géographiquement distant en mode actif/actif.

Sébastien Verger a aussi évoqué les progrès considérables réalisés par EMC avec son « appliance » de stockage distribué VPLEX qui permet de concevoir des architectures informatiques virtualisées réparties entre plusieurs datacenters en mode actif-actif.

L’année 2013 devrait voir se concrétiser la promesse d’une version globale de VPLEX (la technologie supporte déjà le fonctionnement sur deux datacenters en mode actif/actif sur une distance de 200km)..

XtremIO : Stockage SSD avec déduplication inline, le couple idéal ? par Olivier Parcollet

Post intégral extrait du blog DS45 d’Olivier Parcollet

LUNDI 3 SEPTEMBRE 2012

Update : les grands esprits se rencontrent, à lire sur le MagIT

Quoique l’on dise, le disque SSD a révolutionné le petit monde du stockage qui ne s’attendait pas à de tels niveaux de performance. Certains à l’image de NetAPP décide de l’utiliser en tant qu’extension de cache dans le contrôleur voir dans le serveur en amont, d’autres mixent SSD et traditionnels disques mécaniques avec l’artificiel et très consommateur auto-tiering de données plaçant les blocs les plus consultés à l’instar de Dell Compellent ou de l’EMC VNX, Oracle Pillar lui préfère laisser à l’application le soin de piloter le placement et puis enfin, la dernière voie est encore l’apanage du leader EMC qui s’oriente vers des baies 100% native SSD à l’instar de VFcache ou mieux d’XtremIO.

Ca tombe bien. Pour compléter nos chères baies Oracle Pillar mixte SATA/SSD, accélérer le provisionning VDI, remplacer et optimiser les fenêtres de sauvegardes, nous avons choisis de nous orienter vers de l’XtremIO.

Nous avons donc déployé depuis presque deux mois la solution avec un retour d’expérience plutôt positif.

La bête se présente sous la forme d’un contrôleur d’administration 1U dédié qui pilote des enclosures 4U SSD pourvues de ports Fiber Channel et 10 Giga Ethernet.

Après avoir paramétré l’adresse IP d’administration, la machine se pilote au travers d’une interface java à télécharger sur votre PC. Après s’être identifié, on accès à un ‘Dashboard’ présentant une synthèse des informations sur l’état de santé de la machine, son taux d’utilisation et le niveau de performance délivré. Pas de chichi, juste ce qu’il faut ! L’ajout d’un ou plusieurs volumes est simplissime, s’opérant au travers de l’icône dédiée.

On peut indiquer l’alignement lors de la création des volumes

Il suffit ensuite de mapper les volumes aux machines dédiées … ou pas, c’est-à-dire à tous.

J’adore le côté VM-Aware de la machine qui supporte nativement VAAI : gestion du multipathing et de la perf sans prise de tête quoi …

Le niveau de performance est assez bluffant. Au cours de nos tests de montée en charge, nous avons pu obtenir plus de 200 000 IOPs avec une latence d’1 ms sur l’ensemble des volumes depuis un seul serveur vSphere 5 sur une carte bi-canal FC 4Gb/s !

Associé en tant que volume à l’outil de sauvegarde Netbackup 7.5, voir Datarecovery, on atteint les 3,2To/H sauvegardés soit un débit soutenu de 800 Mo/s le tout dans un volume tout rikiki : bref, c’est le beurre, l’argent du beurre et puis peut-être même un peu la crémière …

Merci Olivier !!

Publié par dunestudio45 – DS45

Liens vers ce message Libellés : XtremIO retour expérience vSphere VMware EMC

VMworld2012 : Avamar une solution de backup 100% intégrée à VMware vSphere5

Développée de concert par les équipes engineering EMC et VMware et intégrée dans VMware vSphere 5.1, la solution s’appuie sur la technologie EMC Avamar pour garantir des sauvegardes simples et efficaces de machines virtuelles. La déduplication en plus !! Adieu VDR …

le remplacement de VMware Data Recovery -VDR par vSphere Data Protection -VDP, une nouvelle technologie de sauvegarde et de restauration de VM basée sur la technologie Avamar d’EMC.

VMware a en fait choisi d’embarquer le savoir-faire de déduplication d’Avamar dans une nouvelle appliance de sauvegarde qui permet de gérer de façon centralisée les sauvegardes et les restaurations de jusqu’à 100 VM (avec un maximum de 2To de stockage physique consommé).

vSphere Data Protection s’appuie sur les API de sauvegarde de vSphere (VADP) et sur sa technologie de Changed Block Tracking, qui permet par analyse différentielle de suivre quels blocs de données ont été modifiés entre deux sauvegardes. Le logiciel couple ce support avec la technologie de déduplication d’Avamar pour réduire de façon conséquente les temps de sauvegarde et les volumes de données à transférer et à stocker. VDP ne nécessite l’installation d’aucun agent additionnel dans les VM (ce qui est aussi le cas pour Avamar) et l’administration s’effectue simplement via une interface web intégrée au nouveau client web d’administration. Notons pour les administrateurs vSphere que l’appliance nécessite la présence de vCenter Server 5.1, mais peut gérer la sauvegarde de VM déployées sur des serveurs ESXi 4.x ou 5.0.

  • VMware vSphere Data Protection est intégré avec vSphere, peut être mis en oeuvre aisément et être géré directement à partir du nouveau vSphere Web Client.
  • VMware vSphere Data Protection procure une protection optimale des données pour les environnements virtualisés de petites et moyennes entreprises, exploitant pour ce faire des technologies de sauvegarde et de déduplication.
  • VMware a recours au logiciel EMC Avamar en guise de technologie de base de sa solution VMware vSphere Data Protection.
  • VMware continue d’impliquer étroitement divers partenaires dans le développement de solutions de sauvegarde et de restauration qui s’appuient sur des API vSphere Storage for Data Protection.

Communiqué de presse:

EMC Corporation (NYSE: EMC) et VMware (NYSE: VMW) lancent VMware vSphere Data Protection™, une nouvelle solution de sauvegarde et de restauration destinée au VMware vSphere® 5.1 et qui s’appuie sur le logiciel de sauvegarde et de déduplication Avamar d’EMC®. La nouvelle solution est l’un des éléments constitutifs de VMware vSphere 5.1. VMware Sphere Data Protection remplace vSphere Data Recovery – qui était, précédemment, l’un des composants de vSphere – afin de conférer aux environnements VMware une protection de données plus conviviale, plus fiable et d’un meilleur rapport prix/performances.

VMware vSphere Data Protection a recours à la technologie des logiciels Avamar d’EMC, notamment à ses potentiels de déduplication de blocs de longueur variable, de support intégral de la fonction de Changed Block Tracking et de restauration s’effectuant en une seule opération. Ces potentiels ont pour effet de minimiser la consommation de ressources de stockage, de réduire les temps de sauvegarde et de garantir des restaurations rapides. VMware vSphere Data Protection peut être géré directement à partir du vSphere Web Client. La solution exploite les API vSphere Storage for Data Protection afin d’autoriser les sauvegardes sans agent.

Outre le lancement de VMware vSphere Data Protection, VMware fait progresser le développement de technologies novatrices de sauvegarde, destinées aux environnements virtuels, en procurant un support optimal à son vaste réseau de partenaires. VMware continue d’investir dans les API vSphere Storage for Data Protection afin de garantir une intégration transparente des technologies de sauvegarde et de restauration de fournisseurs tiers avec son VMware vSphere.

Citations:

Bogomil Balkansky, premier vice-président Cloud Infrastructure Products de VMware: “Les procédures de sauvegarde et de restauration représentent un aspect critique des implémentations de virtualisation. Le choix fait en faveur des technologies EMC Avamar nous permet d’offrir de meilleurs potentiels de sauvegarde et de restauration aux utilisateurs et ce, directement à partir de VMware vSphere®. VMware vSphere Data Protection™ procure une importante valeur ajoutée à nos clients et contribue dès lors à différencier encore davantage vSphere 5.1 des offres de la concurrence.”

David Vellante, co-fondateur du Wikibon Project: “L’intégration de la technologie Avamar dans VMware vSphere 5.1 permet aux utilisateurs d’exploiter un potentiel de sauvegarde et de restauration puissant, convivial et intégré, dans le cadre d’environnements virtuels. Les petites sociétés et les départements de grandes entreprises seront les principaux bénéficiaires de cette solution, de même que les organisations qui utilisent pour la première fois les technologies de virtualisation. En ajoutant ces fonctions à sa plate-forme, VMware a clairement donné une nouvelle dimension aux potentiels de sauvegarde et de restauration destinés aux environnements virtuels.”

William “BJ” Jenkins, président de la division Backup Recovery Systems d’EMC: “Avec des produits tels qu’ Avamar, Data Domain® et NetWorker®, EMC s’est ménagé une place de chef de file dans le domaine des sauvegardes et restaurations. Le logiciel de déduplication Avamar est accueilli avec enthousiasme par les utilisateurs VMware qui y voient une solution de sauvegarde et de restauration de niveau entreprise spécialement optimisée pour des environnements VMware. Grâce à l’intégration des fonctions Avamar dans VMware vSphere® Data Protection™, les utilisateurs VMware ont la certitude de pouvoir compter, tant maintenant qu’à l’avenir, sur un outil extrêmement efficace pour protéger leurs machines virtuelles.”

VMworld 2012 : L’innovation continue avec Pat et le BigData et la Virtualisation du Stockage

Pat Gelsinger, le nouveau* PDG de VMware, réaffirme que l’innovation est coeur de la stratégie de la société et qu’il continuera à faire des acquisitions.

* Pat Gelsinger a remplacé Paul Maritz à la tête de VMware depuis le 1er septembre… Paul Maritz prend la responsabilité de la stratégie chez EMC.

Les annonces faites sur la virtualisation du datacenter et sur l’entreprise mobile démontrent que l’innovation est le moteur de l’entreprise. Nous sommes en train de réinventer la façon de créer le datacenter en virtualisant l’ensemble de ses composants. Cela mobilise de l’énergie, des équipes d’ingénieurs pour intégrer l’ensemble de ces évolutions  réalisées en interne, mais aussi par de la croissance organique ». VMworld 2012 a montré une consolidation de ces projets au sein des suites annoncées, vCloud et Horizon.

Pat Gelsinger, CEO de VMware

Pat Gelsinger, CEO de VMware

Big Data et  virtualisation du stockage

Au cours de cet évènement, nous avons néanmoins entendu parler de deux projets, uniquement sur la partie infrastructure. Le premier projet s’appelle Serengeti, il s’agit d’optimiser Hadoop dans un environnement virtualisé.  Une démonstration vidéo est disponible sur YouTube où Hadoop est couplé avec la solution GreenPlum EMC et sur des NAS haut de gamme Isilon, deux autres branches du groupe EMC. L’objectif est de rendre  »scalable » les capacités de Hadoop au sein d’un cluster virtualité.

Le projet Serengeti de VMware
Le projet Serengeti de VMware

Un autre projet pour les infrastructures concerne le stockage. Avec la virtualisation du datacenter, l’éditeur suit attentivement les évolutions de cette brique. Lors de VMworld 2012, il a lancé des pistes de travail sur la virtualisation des LUN, à travers une solution baptisée vVolume. La mémoire flash via les SSD, mais aussi la mémoire cache des serveurs est matière à réflexion à travers la solution vCache. Plus globalement, la notion de vSAN a été également évoquée. Ces éléments ont juste été annoncés furtivement par Pat Gelsinger, lors de la présentation de vCloud Suite, sans donner plus de détails.

Des acquisitions toujours à l’étude

Les deux grandes annonces ont donc éclipsé ces différents projets, mais VMware place toujours l’innovation au coeur de sa stratégie. Pat Gelsinger a réaffirmé ce principe et indique que pour cela la société « continuera à faire des acquisitions ».Il reste bien évidement muet sur les profils des potentiels candidats.  Il souligne néanmoins la bonne opération avec le rachat de Nicira, qui est « pionnier dans la virtualisation du réseau et nous donne une position importante dans le domaine du SDN ». Au point d’inquiéter Cisco ? Non répond le dirigeant « nous avons un partenariat privilégié avec Cisco et nous travaillons avec lui sur les sujets réseaux au sein de VCE ».

EMC FORUM 2012 : UNE NOUVELLE VISION DE L’ENTREPRISE, DE L’IT ET DE VOTRE MÉTIER


Paris – 15 novembre 2012

Carrousel Du Louvre

EMC FORUM 2012 : UNE NOUVELLE VISION DE L’ENTREPRISE, DE L’IT ET DE VOTRE MÉTIER

Préparez vous pour l’EMC Forum version 2012 ! Cette édition 2012  va transformer votre vision de l’avenir de l’entreprise, de l’IT et de votre métier.

  • Découvrez pourquoi le cloud computing et la virtualisation sont essentiels pour faire face aux nouvelles réalités IT.
  • Découvrez comment vous pouvez optimiser votre business grâce au Big Data.
  • Approfondissez les connaissances, les compétences et découvrez les dernières innovations qui vous aideront à relever les défis à venir.

EMC Forum est une occasion unique de rencontrer vos paires mais aussi d’échanger avec les experts et intervenants EMC Français et internationaux, et d’assister à des témoignages et études de cas sur les dernières solutions intégrées d’EMC et de nos partenaires.

Vous pourrez également tester nos solutions en situation sur le vLab!

Inscrivez-vous dès aujourd’hui à EMC Forum 2012 pour ne pas manquer cet événement!

PARIS

Date : 15 novembre 2012

Horaire : 08:30 – 17:30

Lieu

Carrousel Du Louvre
99, rue de Rivoli
75001, Paris

Plan d’accès >>

 Rejoignez la Communauté
Gardez le contact avec EMC et suivez toutes les actualités d’EMC, de ses partenaires, mais aussi de vos homologues !
Suivez EMC sur les réseaux sociaux

FacebookTwitterFlickrYouTubeEMC Community Network

Face au Cloud : évolutions des compétences indispensables !

Le quotidien du responsable informatique d’une entreprise s’apparente à un combat de tous les instants. Le département informatique tout entier subit une transformation en profondeur. Les responsables doivent acquérir de nouvelles compétences et le personnel a besoin de nouvelles formations pour adopter le modèle IT-as-a-Service.

FAIRE FACE À LA CONCURRENCE

Abordons les choses dans l’ordre. Nous entendons fréquemment parler de l’IT-as-a-Service et d’une transformation qui va dans le sens d’une structure orientée services. Alors, quelle est la différence entre le modèle traditionnel dans une entreprise et un département orienté services ?

Je crois qu’il est important de voir plus loin que simplement l’informatique et surtout, de réfléchir à la relation qui existe entre l’entreprise et le service informatique interne. De plus en plus d’utilisateurs métiers considèrent que leur service informatique interne n’est pas l’unique solution pour répondre à leurs besoins. Ils sont plus que jamais disposés à trouver de meilleures solutions, généralement auprès de fournisseurs de services tiers. Le service interne est désormais perçu comme l’un des fournisseurs potentiels ; il ne détient plus le monopole comme par le passé. Si l’on n’y prend garde, une forme « d’informatique parallèle » se développe et pousse les utilisateurs métiers à s’éloigner du département informatique interne pour s’approvisionner ailleurs.

Bien entendu, celui-ci peut tenter de freiner ce comportement en appliquant des règles draconiennes pour les achats informatiques, par exemple, ou en sollicitant la mise en place de règles similaires de la part de la direction. Quoi qu’il en soit, cela ne fait que retarder l’inévitable : tôt ou tard, les départements informatiques devront apprendre à lutter pour conserver leurs clients internes. Ce qui me surprend, c’est que ces départements informatiques existent au sein d’entreprises elles-mêmes incroyablement compétitives. L’idéal serait donc de propager ce même état d’esprit concurrentiel au département informatique.

Nous commençons à utiliser l’expression « orienté services » pour décrire les départements informatiques qui se comportent comme des fournisseurs de services compétitifs et s’éloignent du fonctionnement traditionnel basé sur les projets et la technologie. La structure organisationnelle est différente, de nombreux rôles et compétences associés sont différents, tout comme les mesures et les indicateurs.

Avec un autre angle de vue, on peut dire que les fournisseurs de services concurrentiels ont accès aux mêmes technologies et pools de talents que les départements internes, mais que ce qui les différencie, c’est le modèle.

Avec le temps, de plus en plus de départements informatiques internes vont devoir agir comme leurs concurrents externes et se préparer à rivaliser pour les utilisateurs de l’entreprise.

APPRENDRE DE NOUVEAUX ADVERSAIRES

Ainsi, les intégrateurs de systèmes traditionnels et les fournisseurs de services, autrefois alliés du responsable informatique, sont devenus ses adversaires. Qu’est-ce que le département informatique peut apprendre de ces nouveaux concurrents ?

Les fournisseurs de services ont l’habitude de la concurrence. Par exemple, ils s’entourent d’unités de vente et de marketing, alors que les départements informatiques internes n’y songent même pas. Ils consacrent beaucoup de temps à l’étude des services souhaités par les clients et ne cessent d’améliorer leurs offres. Pour fournir leurs services plus efficacement, ils se lancent dans une course effrénée à la standardisation des technologies et des processus. Encore une fois, les départements informatiques internes ne sont pas rompus à ce genre d’exercice.

Les fournisseurs de services informatiques concurrentiels investissent dans des méthodes qui incitent à consommer leurs services. En comparaison, seules quelques (voire aucune) ressources d’un département informatique d’entreprise s’emploient à stimuler la consommation des services internes. En général, elles se retrouvent plutôt en position de décourager la consommation informatique, ce qu’un fournisseur externe ne ferait jamais.

Aujourd’hui, il est peu probable qu’un département informatique classique charge une équipe dédiée d’améliorer continuellement son catalogue de services dans l’espoir de favoriser la consommation. Et malgré les efforts mis en place, nous assistons en général à une standardisation implacable de la technologie et des processus de la part des fournisseurs de services, qui vont beaucoup plus loin que leurs homologues en entreprise.

Mais cette attitude est précisément celle que doivent adopter les fournisseurs de services pour augmenter leurs parts de marché.

Et si, comme moi, vous pensez que tôt ou tard, les départements informatiques d’entreprise devront se battre pour garder leurs clients internes, vous en arriverez à penser qu’ils doivent utiliser les mêmes armes.

L’autre point qui a son importance est le changement de mentalité. Dans un monde idéal, le département informatique serait un «créateur-vendeur» qui comprend les besoins de ses clients internes et les oriente vers la solution adaptée : un service fourni en interne ou sous-traité par le département informatique.

TROUVER DES RÉPONSES AUX QUESTIONS FONDAMENTALES

Lorsqu’il m’arrive de discuter de tout ceci avec des responsables informatiques, certains me répondent qu’ils agissent déjà ainsi. Ils fournissent des services aux utilisateurs métiers et, par exemple, sont capables de rendre un nouvel utilisateur opérationnel très rapidement.

C’est possible. Je me retrouve dans les mêmes discussions et en général, ils insistent sur le fait qu’ils peuvent rapidement provisionner une machine virtuelle, ou encore une adresse réseau ou tout autre élément obscur de la pile informatique.

Je crois qu’il est important de souligner ici qu’il s’agit uniquement de quelques composants, et non du service même, surtout si l’on se place du point de vue des consommateurs de ces services.

Prenons un exemple : il n’y a pas si longtemps, pour utiliser un iPad chez EMC, il vous fallait parler au gestionnaire du réseau, au responsable de la messagerie, à l’équipe sécurité, etc. Si vous suiviez le processus à la lettre, vous arriviez tôt ou tard à vos fins. Mais tout ceci était aussi frustrant pour l’utilisateur et pour le département informatique.

Comparons avec ce qui se passe maintenant : si vous utilisez un iPad, notre équipe informatique vous offre un service complet, avec tout ce qu’il vous faut, une sorte de « service centralisé », beaucoup plus facile à utiliser et qui évite d’avoir à courir à gauche et à droite pendant des jours ou des semaines. Je pense aussi que tout est plus facile pour l’équipe informatique.

Il me semble également important de souligner que dans bien des cas, le principal consommateur de services informatiques est justement le département informatique. Nous avons remarqué que les projets informatiques des grandes entreprises évoluent plus rapidement lorsqu’ils sont soutenus par un catalogue étoffé de services à la demande à l’intention des professionnels de l’informatique concernés. Même si vous décidez de conserver l’interface traditionnelle orientée projets entre l’informatique et l’entreprise, il est largement possible d’organiser les fonctions associées selon le modèle IT-as-a-service.

Lorsque vous commencez à envisager l’IT-as-a-service, quelques questions fondamentales très épineuses se posent.

Comment identifier et créer ce service ? Comment le justifier et le payer ? Comment le mettre à jour et l’améliorer en permanence ? Comment le commercialiser et le mettre en valeur auprès des utilisateurs potentiels ?

Nous en arrivons aux défis les plus intéressants, car ils impliquent une nouvelle fonction qui n’existe que dans très peu de départements informatiques.

DÉVELOPPER DE NOUVELLES COMPÉTENCES NON TECHNIQUES

Venons-en au coeur du problème : les principales compétences requises pour le directeur informatique et son équipe. Est-il possible de conserver la même équipe, ou devons-nous rechercher de nouveaux profils ?

Je crois que l’on peut définir deux catégories : les domaines où il est possible d’intégrer les rôles existants en les faisant évoluer, et ceux qui nécessitent de tout nouveaux rôles. La seconde catégorie est sans conteste plus problématique que la première.

Si vous disposez déjà d’une équipe efficace dédiée à la virtualisation, sachez que les personnes qui la composent sont généralement tout à fait compétentes pour le passage au modèle de fournisseur de services cloud, tout au moins du point de vue technologique. À titre d’exemple, EMC propose une certification « architecte du cloud » destinée aux architectes expérimentés maîtrisant la virtualisation, le stockage, la mise en réseau, la sécurité, etc., qui les aide à concevoir les modèles dont ils ont besoin pour créer des pools d’infrastructure partagés de grande taille.

Autre exemple : l’ingénierie des processus. Si vous disposez d’une solide équipe chargée de l’ingénierie des processus, il ne sera pas très difficile de la former aux processus de gestion clés du nouveau modèle. Évoquons également les responsables de projets applicatifs qui organisent les tâches autour de projets spécifiques. Ils doivent apprendre à utiliser et consommer des services du catalogue au lieu de s’en tenir à leurs propres environnements dédiés.

Dans cette optique, nous avons mis en place une formation sur les concepts du cloud pour le personnel informatique en général afin qu’il se rende compte de la nouvelle tournure des événements.

Il s’agit sans doute de domaines relativement familiers pour le département informatique, ces compétences étant d’une nature encore assez technique. Mais il existe probablement d’autres domaines plus difficiles à aborder, car entièrement nouveaux.

C’est vrai. C’est le cas, par exemple, de la fonction d’analyste métier, qui sert d’interface clé entre le département informatique et l’entreprise. Traditionnellement, ces personnes transmettent les exigences et l’état d’avancement des projets entre les différents services. Avec la nouvelle organisation, elles représentent désormais la force de vente du fournisseur de services informatiques interne. Il s’agit d’un profil très différent qui fait plus appel à des qualités d’engagement qu’à des connaissances étendues.

Autre exemple : l’équipe chargée de définir et d’améliorer en continu les offres du catalogue de services. Autrement dit, les gestionnaires de produits qui essaient d’anticiper les souhaits des consommateurs. Ici aussi, on parle de compétences que l’on ne trouve pas dans la configuration traditionnelle d’un service informatique, mais tout à fait courantes dans la sphère commerciale.

Suivant la nouvelle tendance, le modèle financier de l’informatique est lui aussi très différent : l’objectif du département informatique est de créer les services recherchés par les consommateurs plutôt que de limiter leur consommation, ce qui, lorsqu’on y réfléchit, ne devrait pas faire partie de ses prérogatives. Le département informatique devrait exclusivement se consacrer à créer des services attractifs et compétitifs. Dans l’idéal, le département financier devrait être chargé de rationner la consommation informatique, de la même manière qu’il rationne les dépenses de personnel, les déplacements et d’autres postes économiques.

Je pourrais citer d’autres exemples, mais je pense que vous avez saisi l’essentiel. L’un des services les plus recherchés que nous proposons aide nos clients à évaluer leurs pools de talents et niveaux de maturité actuels en vue de quantifier les efforts et l’investissement qu’ils devront mettre en oeuvre.

Le plus problématique, c’est d’établir une séquence de modèles organisationnels qui autorise une progression logique du modèle informatique actuel vers le modèle émergent, orienté services. Comme la plupart des séquences organisationnelles, elles sont quelque peu différentes, même si elles comportent des éléments structurels similaires.

ALLER DE L’AVANT

Voilà qui ressemble presque à un changement radical. Comment encourager le personnel informatique à aller de l’avant et à acquérir ces compétences non techniques ?

Comme vous vous en doutez, la réponse n’est pas simple. Parler ouvertement de la transformation de l’informatique (et des nouvelles opportunités de carrières qui en découlent) est certainement un pas dans la bonne direction.

Le département informatique interne d’EMC s’est vu dans l’obligation de créer des descriptions de postes, évolutions de carrière et modèles de rémunération complètement nouveaux, et nécessaires pour inciter le personnel à acquérir des compétences transversales. À ce moment-là, il n’existait pas beaucoup de modèles externes sur lesquels se baser, mais j’espère que la situation s’est améliorée entre-temps.

Comme la plupart des départements informatiques ne peuvent pas se permettre d’engager du nouveau personnel en nombre, une approche plus progressive consiste à ne pas remplacer un rôle par le même lorsqu’il y a des départs. En d’autres termes, les ressources que vous engagez doivent renforcer le nouveau modèle et non perpétuer l’ancien. Le fait que les rôles de l’ancien modèle cèdent la place à de nouveaux rôles a déjà à lui seul un effet stimulant.

SEULES LES PERSONNES COMPTENT

Il semble bien qu’une grande partie du personnel informatique soit vouée à délaisser son rôle technique en faveur d’un poste basé sur des qualités de consultant. Certains y voient une injustice : la technologie ne constitue-t-elle pas un avantage concurrentiel ?

Je comprends cet état d’esprit, mais à moins d’être effectivement consommée par le département informatique, la technologie reste un avantage théorique et non pratique.

Récemment, nous avons réuni plus de 100 responsables informatiques pendant deux jours pour discuter de la transformation de l’informatique. Tout le monde s’est accordé à dire que la technologie n’est plus le facteur limitant ; il y a bien suffisamment de technologies éprouvées pour prendre en charge les nouveaux modèles.

La vraie question qui était dans tous les esprits concernait les personnes : quels talents, quelles compétences et quels rôles, quel modèle organisationnel et surtout, comment mettre tout cela en place de façon logique et la moins dérangeante possible ?

Bien qu’il n’y ait pas de réponse simple, nous commençons à discerner des schémas récurrents dans l’expérience des personnes qui opèrent des transformations vers une orientation métier axée sur les services. Notre équipe informatique EMC a même créé un acronyme : SOOA (service-oriented organizational architecture), qui signifie architecture organisationnelle orientée services, pour décrire le nouveau modèle et ses différences par rapport à l’ancien.

Certains débattent pour savoir s’il s’agit d’une révolution ou seulement d’une évolution informatique. J’aurais tendance à opter pour l’évolution, soit la conséquence naturelle du fait que l’informatique est sans cesse plus indispensable aux business models et que les consommateurs se rendent compte qu’ils ont encore plus de choix attractifs à leur disposition.

Étiquettes :

Le VDI, une approche salvatrice pour le BYOD

La virtualisation de postes de travail s’impose aujourd’hui comme l’approche la plus pragmatique pour les entreprises qui souhaitent mettre en place une stratégie BYOD.

L’enjeu : être à même de fournir un environnement de travail aux employés, quel que soit le terminal utilisé, le lieu et le moyen de connexion.

Pour répondre aux besoins de collaborateurs de plus en plus mobiles, l’entreprise doit être en mesure de délivrer des applications sur tout type de périphérique. La virtualisation de postes de travail est aujourd’hui la réponse la plus rapide à cette demande.

Le BYOD (« Bring Your Own Device », littéralement, amenez votre propre terminal au bureau), est devenu une tendance lourde d’évolution de l’IT dans les entreprises. Apparu à la fin des années 2000, le BYOD avait à l’origine une signification plus restrictive qu’actuellement.

Au tout début, il s’agissait pour les employés d’acquérir eux-mêmes le terminal de leur choix et de pouvoir l’utiliser librement au bureau (moyennant une compensation financière de l’entreprise). L’idée était alors que l’entreprise puisse déployer des applications ou des environnements de travail sécurisés sur ces postes, tout en laissant l’employé libre de contrôler son environnement personnel.

Les débuts du BYOD avaient ainsi permis à quelques grandes sociétés américaines de faciliter la réintroduction massive du Macintosh au sein de leur parc (on pense à des sociétés comme Cisco, Citrix, VMware, EMC…).En quelques années, néanmoins, le concept de BYOD s’est considérablement élargi, notamment du fait de l’irruption massive dans le paysage des postes clients des nouveaux terminaux nomades. Aujourd’hui, l’abréviation décrit la possibilité offerte à tout employé de se connecter à ses applications depuis tout type de terminal fixe ou nomade et depuis tout lieu.

On estime aujourd’hui qu’un peu plus de 2 milliards de nouveaux terminaux mobiles devraient être mis en service dans le monde d’ici 2015. Une large partie d’entre eux sera aussi utilisée dans le cadre de l’entreprise du fait de l’adoption croissante du modèle.

Autant dire que la vague du BYOD est une réalité, et que les entreprises ne pourront échapper au déferlement de terminaux qu’elles n’envisageaient même pas de supporter il y a encore deux ans tels que les smartphones Android et iPhone ou les tablettes, telles que l’iPad. Déjà, pas un jour ne s’écoule sans qu’un employé ou un dirigeant, ne demande l’accès à ses applications au travers de son périphérique nomade favori. Et pour le service informatique, répondre systématiquement non à toutes ces demandes n’est plus une option.

De plus en plus, l’IT doit donc trouver des moyens pour déployer sur tout type de terminal les éléments essentiels de l’environnement de travail des salariés.

L’idéal serait bien sûr que toutes les applications soient à la fois optimisées pour toute forme de terminal, fixe ou mobile, tactile ou non. On en est encore très très loin. De plus en plus la virtualisation de postes clients apparaît donc comme une approche pragmatique pour la mise en œuvre de projets BYOD.

Le VDI : des bénéfices reconnus

La virtualisation des postes de travail s’appuie sur la virtualisation pour faire fonctionner sur des serveurs les environnements de travail des utilisateurs. Ces environnements sont déployés à l’intérieur de machines virtuelles dédiées, dont l’affichage est ensuite déporté sur l’écran du terminal de l’utilisateur.

Avec la virtualisation du poste de travail, on découple l’environnement de travail du poste de travail lui-même ce qui permet de retirer plusieurs grands bénéfices. Le premier est que l’administration des postes clients se trouve grandement simplifiée, puisque l’essentiel de l’administration s’effectue sur les VM centralisées dans le datacenter.

Le stockage, la sauvegarde et la protection des environnements de travail peuvent ainsi être centralisés, de même que la protection des données. Ces dernières ne résident plus sur les postes de travail – dans la pratique certaines données peuvent être stockées localement mais sous forme chiffrée – et ne peuvent donc être dérobées par simple vol du PC.

En fait, en couplant les solutions VDI de VMware et Citrix aux solutions de RSA Security, on peut assurer une étanchéité quasi parfaite de l’infrastructure et garantir ainsi la protection du patrimoine informationnel de l’entreprise, une tâche quasi-impossible à réaliser avec des environnements informatiques traditionnels. Le second bénéfice est le découplage avec le système d’exploitation client du terminal de l’utilisateur.

Ainsi, on peut très bien donner accès à la dernière version de Windows dans l’environnement virtualisé, sans avoir à déployer Windows 7 partout sur les postes clients. Un simple PC sous Windows XP, un terminal en mode client léger, un Mac ou une tablette (iPad ou Android) accèdent tout aussi bien à l’environnement de travail, pour peu que leur résolution d’écran soit suffisante.

À l’extrême on peut même envisager d’accéder à son environnement via un téléphone mobile, ce qui peut dépanner, à défaut de servir de moyen d’accès principal. Ce découplage du système d’exploitation local a d’autres bénéfices, comme celui de pouvoir redonner un accès très rapide au SI à un salarié en cas de perte ou de panne de sa machine. Il suffit en effet de lui fournir un PC de dépannage pour se connecter à l’environnement virtualisé et le salarié retrouve instantanément son environnement de travail dans l’état où il l’avait laissé, avec toutes ses données.

La mise en place d’une architecture VDI est simple lorsque le déploiement est limité à quelques dizaines de postes, mais requiert plus de vigilance lorsque le déploiement porte sur quelques centaines ou plusieurs milliers de postes.

Les aspects réseau et stockage notamment doivent être particulièrement soignés, le stockage pouvant représenter jusqu’à 40 % du coût d’un déploiement VDI (du fait de la centralisation). De même la gestion des profils utilisateurs doit être soignée afin que chaque utilisateur dispose d’une configuration adaptée à ses besoins.

Face à la montée en puissance des grands projets (plusieurs milliers ou dizaines de milliers de postes), en mode cloud privé ou en mode infogéré, EMC a conçu une série d’architectures de références qui sont le produit des expériences acquises sur plusieurs centaines de déploiements clients. Ces architectures de références s’incarnent aussi dans les récents systèmes VSPEX (pour Citrix XenDesktop et pour VMware View).

L’objectif d’EMC avec ces architectures est de proposer à ses clients un socle sur lequel ils vont pouvoir appuyer leurs propres déploiements.

Des solutions optimisées pour la virtualisation des postes de travail

Toutes ces architectures tirent parti de capacités des baies unifiées VNX parfaitement adaptées aux exigences des environnements de postes de travail virtualisés.

Les baies de stockage unifié VNX embarquent des fonctions particulièrement adaptées au déploiement de projets de virtualisation de postes de travail.  

Unisphere, l’interface d’administration des VNX dispose ainsi de fonctions adaptées à la virtualisation de postes de travail. Ces fonctions spécifiques viennent appuyer certaines capacités natives telles que Fast Cache. Contrairement aux architectures de cache de certains concurrents qui ne fonctionnent qu’en lecture, Fast Cache permet d’utiliser la capacité SSD des baies VNX comme cache en lecture et écriture : cela se révèle particulièrement important pour la virtualisation des postes de travail car dans les environnements VDI les écritures représentent en moyenne 80 % des entrées sorties. Cette aptitude à tirer parti des disques SSD installés dans les baies permet aussi d’absorber les pics d’entrées/sorties correspondant aux « tempêtes de démarrage » (ou boot storm) caractéristiques des environnements VDI.

Une baie EMC VNX faisant usage de FAST peut ainsi « booter » l’équivalent de 1 000 desktop virtuels en moins de 8 minutes. Mais EMC ne se limite pas à la seule fourniture du stockage et couvre un bien plus large spectre fonctionnel dans la chaîne VDI.

EMC au sens large couvre en effet l’intégralité de la chaîne VDI, du stockage, à la sécurité, en passant par les hyperviseurs et les logiciels de virtualisation de poste de travail (via VMware), les serveurs (via les systèmes unifiés vBlocks de VCE et les VSPEX), la sauvegarde et la protection des données (Avamar) et la sécurisation de points clés de la chaîne de virtualisation, dont l’authentification et la sécurisation des données de l’entreprise (RSA).

En France EMC a travaillé sur de multiples projets VDI, s’impliquant aussi bien dans les phases d’audit et d’assessment, que dans la conception d’architectures, la mise en œuvre de  « proof of concept » ou le déploiement à grande échelle. Il est également à noter qu’EMC est en interne un utilisateur du VDI. À ce jour, plus de 3 000 collaborateurs bénéficient de la technologie dont environ la moitié d’utilisateurs nomades.

Le VDI chez EMC permet notamment aux salariés de choisir librement leur poste de travail (Mac ou PC) sans que cela n’ait d’impact sur leur aptitude à accéder aux applications de l’entreprise.

Notons enfin pour terminer que Citrix, lui-même a retenu une solution EMC basée sur les baies VNX pour son déploiement de XenDesktop 5, une solution qui est montrée à l’Executive Briefing Center de la firme à Santa Clara.

Les principaux avantages d’un déploiement VDI selon IDC

Selon l’analyste, les entreprises qui ont adopté la virtualisation des postes de travail constatent également des bénéfices importants en termes d’administration, de coûts et de fonctionnalités.

Ces bénéfices peuvent être classés en trois grandes catégories :

Bénéfices quantifiables :

Le fait de faire tourner les environnements utilisateurs dans des VM sur les serveurs permet d’alléger les postes clients, ce qui ouvre la voie à une réduction drastique du coût des postes clients, soit en étendant la durée de vie des postes existants, soit en les remplaçant par des clients légers. L’administration des postes clients virtualisés est aussi largement simplifiée ce qui permet d’optimiser le travail de l’IT.

De plus, la virtualisation des postes de travail peut améliorer la productivité des utilisateurs en augmentant la fiabilité des postes de travail et en réduisant le besoin d’appels au support. IDC indique toutefois que ces gains peuvent être en partie effacés par les coûts nécessaires à la mise en place de l’infrastructure de virtualisation de postes de travail.

Bénéfices fonctionnels :

La virtualisation des postes de travail déplace les données du poste client vers le datacenter et réduit donc au passage les risques de sécurité qui pèsent sur l’organisation. La sauvegarde des données est aussi facilitée par le fait que les données résident dans le datacenter, ce qui permet aussi d’assurer le respect des règles de conformité. La reprise après désastre est aussi simplifiée car l’IT peut très facilement restaurer les postes de travail à leur dernier état connu.

Bénéfices organisationnels :

Les tensions traditionnelles entre l’IT et les autres pans de l’entreprise peuvent être réduites grâce à la virtualisation. Comme les environnements virtualisés sont plus simples à gérer et plus sûrs que les postes traditionnels, l’IT peut laisser plus de liberté aux utilisateurs. Les bureaux virtualisés peuvent aussi contribuer à une meilleure expérience utilisateur, notamment par rapport à celle que procurent des PC vieillissant. Enfin, la virtualisation permet un accès aux environnements de travail depuis tout lieu et à toute heure et ce depuis tout type de périphérique, ce qui peut contribuer à améliorer la satisfaction des utilisateurs.