Archive

Archive for the ‘Générale’ Category

2012 in review

Les lutins statisticiens de WordPress.com ont préparé le rapport annuel 2012 de mon blog.

En voici un extrait :

600 personnes ont atteint le sommet de l’Everest en 2012. Ce blog a été vu 9 200 fois en 2012. Pour que chaque personne ayant atteint le somment de l’Everest puisse visiter ce blog, 15 ans auraient été nécessaires.

Cliquez ici pour voir le rapport complet.

Bonne année 2013

Jean-Yves

La révolution du stockage est en route : Quelle vision technologique pour EMC en 2013 ?

A l’occasion d’EMC Forum 2012, Sébastien Verger, notre CTO EMC France, a levé le voile sur les évolutions de l’offre EMC attendues pour 2013 en mettant l’accent, sans trop de surprise pour les amateurs de stockage EMC, sur l’intégration de la technologie Flash de bout en bout entre serveurs et baies de stockage…

La mémoire Flash va jouer un rôle clé dans la transformation des architectures de stockage des prochaines années. C’est ce que Seb a pointé du doigt pendant le keynote  d’EMC Forum 2012 qui se tenait à Paris, au Carrousel du Louvre le 15 novembre dernier.

La raison fondamentale de l’importance de la Flash tient à une question d’architecture des systèmes informatiques : si la performance des processeurs a explosé au cours des dernières années, celle des disques durs n’a pas suivi ce qui fait que le stockage est devenu un goulet d’étranglement pour les performances.

Un goulet qu’il est possible de faire disparaître avec la mémoire Flash.

1

L’impact de la Flash sur les systèmes de stockage est lié à ses caractéristiques uniques en matière de rapport performances/prix.

Pour se faire une idée du fossé qui s’est creusé entre stockage et « compute » il suffit de comparer le temps d’accès d’une mémoire vive, d’un disque dur et d’une mémoire Flash. La première a un temps d’accès de 2 nanosecondes, tandis que le second a un temps d’accès typique de 5 à 6 millisecondes (pour un disque SAS) et du double pour un disque SATA.

Une mémoire Flash de dernière génération, de son côté, a un temps d’accès de l’ordre de 60 nanosecondes. Ecrit ainsi les différences ne sont pas parlantes mais si on les ramène à une échelle plus courante la différence est criante : posons comme hypothèse que le temps d’accès de la mémoire vive est de 1s, ce qui nous amène, en gardant les mêmes proportions, à un temps d’accès pour la mémoire Flash de 30s alors qu’il estde 28 jours et 23 heures pour un disque dur SAS ! Cela veut dire qu’au lieu d’attendre 1s pour atteindre une donnée en mémoire vive, le processeur doit attendre 30s, s’il doit la chercher dans une carte flash locale et près d’un mois s’il lui faut aller la lire sur le disque dur… Le pire est que ce différentiel va croissant : le temps d’accès aux mémoires continue de s’améliorer, tandis que celui des disques durs n’a plus évolué depuis bientôt dix ans. Comme l’explique Sébastien Verger, l’ironie est que les utilisateurs comprennent bien la différence, en tout cas ceux qui ont équipé leur ordinateur d’un SSD, le simple remplacement du disque dur par un disque à mémoire Flash apportant une amélioration des performances sans commune mesure avec celle permise par l’utilisation d’un processeur plus rapide.

2-1

Un usage judicieux des disques SSD permet d’améliorer considérablement la performance d’une baie de stockage tout en réduisant ses coûts.

Fort de ce constat, EMC entend utiliser au mieux les bénéfices que procure la mémoire Flash sur l’ensemble de la chaine reliant serveurs et stockage. Le premier étage auquel EMC a appliqué la technologie est bien évidemment les baies de stockage. Selon Sébastien, il suffit d’installer 2,5 à 10% de la capacité d’une baie de stockage en disques SSD pour doper de façon significative les performances, tout en abaissant les coûts et la consommation électrique.

L’utilisation de disques SSD permet en effet d’éliminer le recours à des disques SAS coûteux mais aussi très gourmands en énergie et de les remplacer par des disques SATA. Le système de tiering des baies permet alors de cibler les opérations d’I/O les plus intensives vers la Flash et d’utiliser le pool de capacité SATA pour le stockage « à froid » des données.

Actuellement, plus de 60% des baies VNX et VNXe vendues embarquent un étage de stockage Flash.

perspective

La baie 100% Flash « Project X » promet des performances explosives couplées à une très grande simplicité d’utilisation

L’étape suivante sur le marché des baies de stockage est l’arrivée d’une nouvelle catégorie de systèmes de stockage basés à 100% sur la mémoire Flash afin d’offrir des performances aussi élevées que possible. Comme l’explique Sébastien, c’est le « Project X » d’EMC, qui s’appuie sur la technologie rachetée à l’Israélien XtremIO.

La baie de stockage qui en résultera promet des performances inconnues à ce jour, à savoir plus d’un million d’IOPS soutenus, et ce quel que soit le type d’application. La baie combine l’usage de la Flash comme support de stockage avec un usage systématique de la déduplication de données (afin de minimiser l’usure de la Flash mais aussi d’optimiser l’usage de la capacité). Son architecture étant basée sur un concept scale-out, la performance augmente avec le nombre de nœuds dans le cluster de stockage. L’objectif est aussi de faire en sorte que la baie s’auto-optimise de telle sorte qu’elle ne nécessite ni tuning ni allocation manuelle de ressources.

Olivier Parcollet, architecte IT chez Keolis, par ailleurs connu pour son rôle au sein du groupe utilisateurs de VMware, est venu témoigner de son utilisation d’un prototype de la baie ProjectX lors d’EMC Forum. Avec deux nœuds, Olivier Parcollet indique « que le niveau de performance est assez bluffant ».

Lors de tests de montée en charge, Keolis a ainsi pu obtenir plus de 200 000 IOPs avec une latence d’1 ms, sur l’ensemble des volumes depuis un seul serveur vSphere 5 sur une carte bi-canal FC 4Gb/s. Et on rappelle que ce n’était qu’avec deux nœuds et une version prototype loin d’être finalisée…

Gérer la performance en optimisant l’usage de la Flash de bout en bout Si EMC continue à développer les usages de la Flash dans les baies de stockage, nous mettons aussi l’accent sur le bon usage de la Flash sur l’ensemble de la chaine reliant les serveurs au stockage.

Nous avons ainsi fait un premier pas dans le monde des serveurs en introduisant cet été la carte VFCache. Cette carte PCI-express Flash s’installe directement dans le serveur qui accède aux données, et elle offre des performances optimale car le bus sur lequel elle est installée (PCI Express) a une latence bien inférieur aux connexions SAN. et sur un bus qui n’est pas un goulet d’étranglement. Elle peut être utilisée à la fois comme un étage de stockage local à très hautes performances ou comme un cache vers les données stockées sur les baies de stockage. La proximité de la Flash du processeur permet notamment de minimiser la latence d’accès et de répondre aux besoins des applications les plus sensibles à la latence comme les applications transactionnelles, les bases de données… Les tests menés sous Oracle ont ainsi montré des gains de performance de l’ordre d’un facteur de trois. L’un des problèmes de l’usage des cartes PCIe Flash est toutefois leur coût. EMC travaille donc à une appliance de cache partagée baptisée « Thunder » dont l’objectif est de permettre la mutualisation de plusieurs cartes Flash VF Cache par un grand nombre de serveurs. « Thunder » s’appuiera sur un bus de communication rapide comme Infiniband pour communiquer avec les serveurs et minimiser ainsi au mieux l’impact du bus de connexion sur la latence. L’idée est de servir de cache partagé et sécurisé pour un groupe de serveurs en frontal des baies de stockage SAN.

3

Des technologies qui pourront être déployées individuellement ou conjointement avec un degré d’optimisation supplémentaire grâce à l’utilisation de la technologie FAST de bout en bout. Ces technologies pourront bien sûr être déployées de façon autonome.

Mais EMC travaille à coordonner leurs bénéfices individuels au sein d’une architecture optimisée. L’idée est d’appliquer la technologie de tiering FAST de bout en bout entre les serveurs et les baies de stockage par exemple pour pré-peupler le cache d’une carte VFCache avec des données d’une baie de stockage. L’objectif est bien sûr d’assurer une protection maximale des données tout en optimisant encore un peu plus les performances.

RecoverPoint et VPLEX à l’honneur en 2013

La mémoire Flash n’était toutefois pas la seule technologie à l’honneur lors de l’intervention de Sébastien à EMC Forum.

Ce dernier a aussi mis en avant la technologie de réplication continue RecoverPoint, de plus en plus utilisée par les clients pour protéger leurs environnements de stockage et garantir un redémarrage aussi rapide que possible avec aussi peu de pertes de données que possible en cas de sinistre sur leur centre informatique primaire. L’année 2013 devrait voir la généralisation du support de RecoverPoint à l’ensemble des gammes EMC (la technologie est déjà supportée sur VNX et VMAX).

4-1

VPLEX rend possible la mise en oeuvre d’architectures virtualisées distribuées entre deux datacenters géographiquement distant en mode actif/actif.

Sébastien Verger a aussi évoqué les progrès considérables réalisés par EMC avec son « appliance » de stockage distribué VPLEX qui permet de concevoir des architectures informatiques virtualisées réparties entre plusieurs datacenters en mode actif-actif.

L’année 2013 devrait voir se concrétiser la promesse d’une version globale de VPLEX (la technologie supporte déjà le fonctionnement sur deux datacenters en mode actif/actif sur une distance de 200km)..

Etude EMC Big Data Index : un intérêt réel des entreprises en dépit d’un retard à l’allumage de la DSI

Au delà des résultats du Big Data Index, l’étude que j’ai lancé récemment avec IDC, a le mérite de mettre en avant la maturité et l’attitude face au Big Data, à la fois des responsables des études et métiers et des responsables informatiques et d’infrastructures.

Une méthodologie adaptée à la réalité de ces projets informatiques qui impliquent fortement les métiers. Le Big Data, c’est un renversement de modèle qui va au delà de transformation de l’IT. Et cela nécessitera sans doute la mise en place d’organisation métier et technologique spécifique complètement dédiée à gestion de l’information.

Des projets qui commencent juste à émerger dans les entreprises françaises

Le Big Data Index a pour objectif de mieux analyser la perception qu’ont les entreprises françaisesdu Big Data et la réalité des initiatives prises dans ce domaine. Il repose sur deux enquêtes conduites en France en juin et juillet 2012 auprès de 160 entreprises de plus de 200 salariés.

Deux populations ont été interrogées : les études et les responsables informatiques et d’infrastructures. Sans surprise au regard de la jeunesse du concept, 70% des entreprises interrogées par IDC  déclarent ne pas avoir d’initiatives ou de réflexion dans le domaine du Big Data et une entreprise sur deux a le sentiment d’être très en retrait avec la moyenne de la profession dans ce domaine.

Les raisons invoquées se situent principalement dans le domaine des compétences et de l’organisation. Le manque d’expertise technologique en interne est ainsi perçu comme le principal frein et pour 64% des équipes IT, ayant répondu à cette étude, la collaboration des services informatiques et des entités métiers devront être renforcées.

Comme le confirme l’étude, le Big Data commence juste à émerger en France. Ainsi, 18 %  seulement des entreprises interrogées déclarent utiliser des solutions « Big Data » et 11% ont prévu ou envisagent d’investir.

Pour IDC, les initiatives de ces entreprises « volontaristes » restent limitées par leur nombre et par l’ampleur des projets. Seule une moitié déploie, ou a déployé, des technologies portant à la fois sur les dimensions «stockage» et «analytiques» du Big Data.

Tendance plus positive pour l’avenir : 31% des entreprises interrogées ont esquissé, avec des entités métier, des réflexions et des discussions de type « Big Data », voire des déploiements technologiques, sans pour autant revendiquer une démarche « Big Data », ni même faire le lien avec le concept.

Un intérêt plus large et plus dynamique qu’il n’y paraît

Si, selon les résultats de l’étude, plus de la moitié des projets Big Data concernent l’analyse financière (58%), donc le secteur bancaire, et la connaissance client (53%),  on sait que la réalité du Big Data sur le terrain est plus diversifiée que cela. EMC insiste notamment beaucoup sur le coté prédictif du Big Data et pas seulement dans les secteurs innovants du commerce électronique ou de la publicité en ligne. Dans le temps, les domaines concernés seront plus vastes que l’on ne peut l’imaginer aujourd’hui.

Pour le prouver, nous avons d’ailleurs lancé différentes initiatives visant à illustrer tous les champs d’application possibles au quotidien. Au delà des usages possibles, le Big Data est perçu comme un projet très innovant.

Selon 75% des responsables « Etudes » interrogés, « le Big Data pourrait contribuer à renforcer d’une manière ou d’une autre la capacité d’innovation de leur organisation ». Grâce aux technologies Big Data, 59% estiment qu’elles pourraient tirer parti de données jusqu’alors inaccessibles. 40% indiquent que le Big Data rend possible de nouveaux modèles économiques basés sur la réactivité et l’interactivité en temps réel.

En conclusion, les résultats de l’étude témoignent encore d’une différence de maturité et d’intérêt pour le Big Data entre les entités « métiers » et « informatiques » de l’entreprise, mais aussi entre les équipes « Etudes » et « Infrastructures » au sein des directions informatiques.

La grande majorité des responsables des départements Etudes, interrogés au sein des Directions des Services Informatiques françaises, observent une demande croissante de la part des entités métier (Marketing et Finance en particulier). Et ce, en matière d’analyses plus fines et plus fréquentes, portant à la fois sur les volumes de données croissants, mais également sur des contenus plus variés.

VMware acquiert Nicira, spécialiste de la virtualisation réseau

Crédit Photo: D.R

Crédit Photo: D.R

Après les serveurs et le stockage, VMware s’empare d’une pépite de la Silicon Valley, Nicira. Pour 1,28 milliard de dollars, le fournisseur de solution de virtualisation ajoute la brique réseau à son portefeuille datacenter.

Poursuivant sa quête de virtualiser tous les aspects du datacenter, VMware vient d’acquérir pour 1,26 milliard de dollars Nicira, un pionnier de la technologie SDN (Software Defined Network) et un joyau de la Silicon Valley. « Je crois que nous avons la possibilité de faire la même chose pour les réseaux que ce que nous avons réalisé pour d’autres éléments du datacenter », précise Steve Herrod, CTO de VMware dans un blog. Le fournisseur de solutions de virtualisation va intégrer la technologie phare de Nicira, baptisée Open vSwitch, dans son portefeuille de réseau virtuel. Le logiciel de Nicira créé une couche d’abstraction entre les serveurs et les équipements réseaux, donnant aux entreprises la possibilité de découpler la topologie réseau des équipements, de créer des pools virtualisés de capacité réseau. La solution supporte une grande variété d’interface réseau, commutateurs, appliances, des API réseaux et des systèmes de type Fabric.

Une équipe pionnière dans OpenFlow

VMware va encourager les salariés de Nicira à continuer à travailler sur des projets réseaux Open Source. Il faut savoir que le travail de Martin Casado à Stanford, aujourd’hui CTO de Nicira, a conduit à la création d’OpenFlow, un catalyseur de réseau comme le définit le concept SDN (Software-Defined Networking). Ce protocole a été initié en 2007 par l’université de Stanford pour gérer les réseaux entre les campus universitaires. D’autres employés ont accompagné le développement de l’aspect réseau, connu sous le nom Quantum d’OpenStack.

La filiale d’EMC va payer 1,05 milliard de dollars en numéraire et 210 millions de primes  en actions. Nicira a été fondée en 2007 et elle est basée à Palo Alto en Californie.

EMC FORUM 2012 : UNE NOUVELLE VISION DE L’ENTREPRISE, DE L’IT ET DE VOTRE MÉTIER


Paris – 15 novembre 2012

Carrousel Du Louvre

EMC FORUM 2012 : UNE NOUVELLE VISION DE L’ENTREPRISE, DE L’IT ET DE VOTRE MÉTIER

Préparez vous pour l’EMC Forum version 2012 ! Cette édition 2012  va transformer votre vision de l’avenir de l’entreprise, de l’IT et de votre métier.

  • Découvrez pourquoi le cloud computing et la virtualisation sont essentiels pour faire face aux nouvelles réalités IT.
  • Découvrez comment vous pouvez optimiser votre business grâce au Big Data.
  • Approfondissez les connaissances, les compétences et découvrez les dernières innovations qui vous aideront à relever les défis à venir.

EMC Forum est une occasion unique de rencontrer vos paires mais aussi d’échanger avec les experts et intervenants EMC Français et internationaux, et d’assister à des témoignages et études de cas sur les dernières solutions intégrées d’EMC et de nos partenaires.

Vous pourrez également tester nos solutions en situation sur le vLab!

Inscrivez-vous dès aujourd’hui à EMC Forum 2012 pour ne pas manquer cet événement!

PARIS

Date : 15 novembre 2012

Horaire : 08:30 – 17:30

Lieu

Carrousel Du Louvre
99, rue de Rivoli
75001, Paris

Plan d’accès >>

 Rejoignez la Communauté
Gardez le contact avec EMC et suivez toutes les actualités d’EMC, de ses partenaires, mais aussi de vos homologues !
Suivez EMC sur les réseaux sociaux

FacebookTwitterFlickrYouTubeEMC Community Network

Les enjeux de l’administration du Stockage avec vSphere5

L’intégration avec VMware vSphere5 est un facteur important dans le choix des solutions de stockage, un sujet d’importance surtout pour les administrateurs. Aussi je vous fais partager le résultat d’une étude réalisée par Wikibon dont le but est d’analyser le niveau d’intégration des différents fournisseurs de solutions de Stockage avec les nouvelles API de stockage

Vous pouvez retrouver l’ensemble de l’étude sur : http://wikibon.org/wiki/v/VSphere_5_Storage_Integration_chips_away_at_Management_Overhead

VSphere 5 Storage Integration chips away at Management Overhead par Wikibon

Last Update: Aug 24, 2012 | 10:39
Viewed 2309 times | Community Rating: 5
Originating Author: David Floyer

Research done in collaboration with Stuart MinimanNick Allen and Ralph Finos

Contents

Introduction

The elephant in the room for virtualization and storage is the tension between the traditional storage vendors and VMware. The storage array vendors prefer that storage management look and feel the same way regardless of environment. The VMware administrators want to manage storage using VMware tools and terminology.

Many of the integration points in vSphere 5 are designed to reduce this tension. The result? It is still a journey, and VMware users should not expect the final level of integration they need. However, vSphere 5 brings significant improvements in integrating the two views of the world, as evidenced in our recent survey of users, where we found a high level of satisfaction with vSphere 5 storage-related features. Some of the hybrid NFS implementations show promise that a total level of integration at the application level can and will be achieved.

In June 2011, Wikibon publish a report entitled EMC and NetApp lead in VMware Storage Integration Functionality, which covered the storage integration functionality in VMware 4. In July 2012, VMware announced new storage features in vSphere 5, including a significant number of changes in how storage is integrated as well as additional features in View, VMware’s VDI technology. Some of the most important features are under the covers. VMware had previously integrated many storage integration features from a few vendors into the VMware kernel. This was unsustainable in the long run, both from the point of view of the number of vendors supported and (more importantly) from the exposure from foreign code to VMware stability. VMware defined a large number of storage integration APIs, which not only covered the traditional block storage, but file-based (NFS) storage as well.

Executive Summary

Integration is one factor in selecting storage and certainly not the whole story, but it is highly important for users. The purpose of this Wikibon research is to establish the level of integration against all the new VMware storage APIs for different vendors for two VMware environments: General Modular & Block-only (defined in detail in the following section). The two charts in Figure 1 & 2 below summarize the overall findings of our research.

Figure 1 – Wikibon vSphere 5 General Modular Storage Integration Assessment by Vendor Array (Maximum 100)
Source: Wikibon 2012, based on interviews with all manufacturers and Wikibon Ratings of Importance to VMware Installations

Figure 2 – Wikibon vSphere 5 Block-only Storage Integration Assessment by Vendor Array (Maximum 100)
Source: Wikibon 2012, based on interviews with all manufacturers and Wikibon Ratings of Importance to VMware Installations

The EMC VNX storage array leads in both categories. In the general category, the unified storage arrays such as the EMC VNX and NetApp FAS series do well, as they have integration features applicable to both block and file. The EMC VMAX is the first of the block-only vendors, with HP 3PAR and Dell Compellent in a statistical dead-heat for fourth place. Despite the availability of the vSphere APIs to simplify the development process, both IBM and Hitachi do not seem to have invested in implementing the new APIs. Perhaps they are saving that investment for new storage hardware.

In the block storage category, the EMC VNX and EMC VMAX are clear leaders, with the NetApp FAS array in third position and HP 3PAR in fourth. The same comments about IBM and Hitachi are also true for this category.

In general, higher levels of integration should equate to lower costs of management. Of course, many other factors need to be taken into account, including what is currently installed, levels of performance required, and the availability of functionality such as replication and tiered storage.

Arrays Analyzed

Wikibon Analysis of 12 different traditional arrays included:

  • Dell Compellent & EqualLogic
  • EMC VMAX & VNX
  • Hitachi AMX & VSP
  • IBM DS 8000, StorWize V7000 & XIV
  • HP 3PAR & LeftHand
  • NetApp FAS Series

We also looked at two hybrid arrays (non-oversubscribed) from Nimble and Tintrí. We did not do a detailed analysis of these hybrids, but Wikibon believes the best implementation of application-based VMware storage is to be found in the Tintrí NFS implementation. This is probably a harbinger of what the final integration will look like. Even though no Nimble or Tintri customers were in the survey, 10% of respondents voted them as the best VMware platforms.

Methodology

For our current study, we defined two groups of storage (compared with three in the 2011 study). They were:

  1. General VMware Modular Storage, including block & file-based storage. This is roughly equivalent to the Tier 2 definition in the 2011 study with the addition of file-based services. Our surveys and in-depth interviews indicated that this was the “sweet spot” of VMware storage.
  2. Block-only VMware Storage. This base was set at a higher functionality, performance and reliability standard than the modular storage, but was block only.

Wikibon also looked at an NFS-only category, but we have left detailed analysis of this category for another occasion.

Wikibon created an initial list of integration features and put them into six groups. We then asked each vendor whether the feature was available or not and whether the vendor had implemented any specific features not covered by the list. We ended up with 57 integration points for the General VMware Modular storage case (nearly twice the 2011 study), and 50 integration points for the block-only VMware storage case.

The groups and the factors within them were then assessed and weighted for importance. The two tables below show the weightings for the six groups for general and block-only storage. Table 5 shows the full table in the footnotes.

Table 1 – Group Importance Weighting for General Modular VMware Storage (Maximum 100)
Source: Wikibon 2012; See Table 5 for detailed element analysis in the footnotes

Table 2 – Group Importance Weighting for Block-only VMware Storage (Maximum 100)
Source: Wikibon 2012; See Table 5 for detailed element analysis in the footnotes

Detailed Results

Figures 3 & 4 show the detailed results for general modular and for block-only storage by vendor and group. Figure 5 shows the results for unified storage offerings. The charts show that we gave greater weight to data protection, performance, and management.

Figure 3 – Assessment by Group by Vendor of General Modular VMware Integration in vSphere 5 (Maximum 100)
Source: Wikibon 2012

Figure 4 – Assessment by Group by Vendor of Block-only VMware Integration in vSphere 5 (Maximum 100)
Source: Wikibon 2012

Figure 5 – Assessment by Group by Vendor of Unified Storage VMware Integration in vSphere 5 (Maximum 100)
Source: Wikibon 2012

 

Conclusions

The overall conclusion is that the leading vendors have implemented strong integration features with VMware. However, this is far from the end of the journey. The journey-end can be glimpsed by looking at the Tintrí operating panel, where all the information about the storage used by an application is available to the operator in great detail, and where LUNs don’t exist. Wikibon estimates we are about half way on the journey to full integration of VMware storage at the application level with full management and analysis detail. In the meanwhile, EMC and NetApp continue to lead in VMware storage integration in vSphere 5.

Action Item: Users should use these findings to help understand what integration features are available, and which vendors have installed them. They should then use their own weightings in assessing the potential benefit of these features in their environment, in conjunction with the other factors already on their evaluation list. Wikibon would be happy to assist individual organizations that would like to run the numbers against there own evaluation weightings.

Footnotes: Also see Wikibon 2012 vSphere 5 Survey shows Customer Satisfaction and Rapid Adoption

Wikibon’s 2011 VMware Storage Integration Journey Checkpoint of vSphere 4.x (research and survey summary)

Wikibon’s 2010 The Value of the VMware Integration Journey

Table 5 –Importance Weighting of VMware vSphere 5 Storage Integration Features for General Modular and Block-only VMware Storage (unnormalized)
Source: Wikibon 2012

 

Table 6 – Vendor Implementation Table of VMware Integration Features
Source: Wikibon 2012

2000 entreprises témoignent : Quelles applications et quel stockage privilégient les utilisateurs de VMware ?

S’il est peu connu pour son rôle de vice-président en charge des Services chez EMC, Chad Sakac l’est surtout pour son blog Virtual Geek, qui est aujourd’hui l’un des plus lus au monde sur le thème de la virtualisation et des technologies VMware.

À la fin de l’année 2011, Chad a réalisé via son blog une enquête sur la virtualisation à laquelle ont répondu près de 2000 entreprises à travers le monde (1 935 répondants dans 65 pays pour être exact).

Un résultat impressionnant par rapport à des enquêtes d’analystes souvent menées auprès de 200 à 300 répondants et qui permet de disposer d’un échantillon intéressant pour faire un état de la virtualisation dans le monde. Le blog de Chad étant publié en anglais, SolutionITPME a décidé de reprendre les résultats les plus saillants et de les commenter en français. Un travail rendu possible par le fait que Chad a mis à disposition sur Internet les données brutes de son enquête.

Une adoption rapide des dernières versions de vSphere La première question de l’enquête porte sur les hyperviseurs utilisés par les répondants. Ceux qui utilisent VMware utilisent encore pour la plupart vSphere 4.1 (à 85%) mais une part non négligeable a déjà mis en production vSphere 5.0 sur tout ou parti de son infrastructure. Ils sont ainsi près de 59,2% à déjà utiliser vSphere 5.0. Les versions les plus anciennes de vSphere sont en recul rapide avec 24,3% des utilisateurs qui font encore tourner vSphere 4.0 sur une partie de leur infrastructure et 12% qui utilisent encore VMware Infrastructure 3.5, le prédécesseur de vSphere.

Un point intéressant mis en lumière par l’étude est que d’autres hyperviseurs sont utilisés en parallèle de vSphere. 48,8% des répondants utilisent ainsi Hyper-V sur une partie de leur infrastructure, tandis que 18,2% et 26,5% utilisent respectivement Xen et XenServer. KVM reste clairement embryonnaire (11,5%) et en tout cas bien derrière les technologies de virtualisation Unix comme les LPARs d’AIX et HP-UX (16,3%) ou les conteneurs Solaris (15,5%).

La virtualisation : une technologie mature largement utiliséeUn autre constat est que la virtualisation est désormais largement mature avec 67% des utilisateurs qui déclarent l’utiliser sur plus de 80% de leur infrastructure et 85,3 % qui l’utilisent sur plus de 60% de leur infrastructure. Et ce constat est valide aussi bien pour les petites structures que pour les grandes entreprises. Le profil des applications virtualisées en dit d’ailleurs long sur la confiance qu’ont désormais les entreprises dans la virtualisation. Ainsi, plus de la moitié des répondants ont virtualisé leur messagerie Exchange et SharePoint avec satisfaction, tandis que 75% ont fait de même avec SQL Server. 20% ont aussi virtualisé leur SGBD Oracle et 11% supplémentaires sont en cours de test, des résultats plus faibles qui tiennent sans doute largement au fait que les conditions de licence et de support d’Oracle en environnements virtualisés restent problématiques.

Quelles applications virtualisez-vous ?

Un autre point mis en avant par l’enquête est que les technologies VDI ont le vent en poupe. Près d’un tiers des déclarants utilise ainsi déjà des technologies VDI VMware dans leur environnement et près d’un cinquième mettent en œuvre des technologies Citrix. Surtout un grand nombre est en phase de test sur ces technologies ou réfléchit à leur adoption. EMC : le fournisseur de stockage privilégié des utilisateurs de VMwareLa dernière tendance mise en lumière par l’étude est la prééminence des solutions de stockage EMC auprès des utilisateurs VMware. Les anciennes génération de systèmes EMC (Clariion et Celerra sont ainsi présentes dans 37,5 % des déploiements en production, mais le plus impressionant est sans doute la montée en puissance rapide des baies unifiées VNX, pourtant lancées il y a à peine un an. Ces dernières sont déjà mises en oeuvre par 26,1% des entreprises ayant répondu à l’enquête.

Les baies de stockage utilisées avec VMware.

Comme le note Chad Sakac, les utilisateurs sont assez agnostiques quant aux protocoles de stockage mis en oeuvre. FC reste le plus populaire, mais il est talonné par iSCSI. Et le pourcentage d’utilisateurs utilisant le protocole de partage de fichiers en réseau NFS est loin d’être symbolique. Ainsi, 57,9% des utilisateurs indiquent utiliser le FC à 4 Gbit/s, tandis que 40% utilisent le FC à 8GBit/s. iSCSI est déployé par près de 51,3% des répondants sur des réseaux Gigabit Ethernet, tandis que 17% utilisent iSCSI sur réseau 10 Gbit/s. NFS enfin, est utilisé par 33,5% des répondants sur réseau gigabit et par 16,8% des répondants sur réseau 10Gigabit. A propos de Chad Sakac

Chad Sakac

Chad Sakac est vice-président d’EMC en charge des Services. Il est aussi connu pour son blog sur la virtualisation et le stockage, Virtual Geek, qui est l’un des blogs les plus fréquenté au monde sur le sujet de la virtualisation. Chad Sakac est chez EMC depuis 2004, date à laquelle le constructeur a acquis Allocity, une start-up canadienne qui avait développé une cible iSCSI logicielle dont la technologie a depuis été incorporée dans la pile logicielle des systèmes de stockage EMC. Chad est aussi connu comme l’un des animateurs de la communauté de vSpecialists chez EMC, des ingénieurs qui maitrisent à la fois les technologies de stockage EMC et les technologies VMware. Le Blog Virtual Geek est consultable à l’adresse : http://virtualgeek.typepad.com/