Archive

Archive for the ‘Stockage’ Category

La révolution du stockage est en route : Quelle vision technologique pour EMC en 2013 ?

A l’occasion d’EMC Forum 2012, Sébastien Verger, notre CTO EMC France, a levé le voile sur les évolutions de l’offre EMC attendues pour 2013 en mettant l’accent, sans trop de surprise pour les amateurs de stockage EMC, sur l’intégration de la technologie Flash de bout en bout entre serveurs et baies de stockage…

La mémoire Flash va jouer un rôle clé dans la transformation des architectures de stockage des prochaines années. C’est ce que Seb a pointé du doigt pendant le keynote  d’EMC Forum 2012 qui se tenait à Paris, au Carrousel du Louvre le 15 novembre dernier.

La raison fondamentale de l’importance de la Flash tient à une question d’architecture des systèmes informatiques : si la performance des processeurs a explosé au cours des dernières années, celle des disques durs n’a pas suivi ce qui fait que le stockage est devenu un goulet d’étranglement pour les performances.

Un goulet qu’il est possible de faire disparaître avec la mémoire Flash.

1

L’impact de la Flash sur les systèmes de stockage est lié à ses caractéristiques uniques en matière de rapport performances/prix.

Pour se faire une idée du fossé qui s’est creusé entre stockage et « compute » il suffit de comparer le temps d’accès d’une mémoire vive, d’un disque dur et d’une mémoire Flash. La première a un temps d’accès de 2 nanosecondes, tandis que le second a un temps d’accès typique de 5 à 6 millisecondes (pour un disque SAS) et du double pour un disque SATA.

Une mémoire Flash de dernière génération, de son côté, a un temps d’accès de l’ordre de 60 nanosecondes. Ecrit ainsi les différences ne sont pas parlantes mais si on les ramène à une échelle plus courante la différence est criante : posons comme hypothèse que le temps d’accès de la mémoire vive est de 1s, ce qui nous amène, en gardant les mêmes proportions, à un temps d’accès pour la mémoire Flash de 30s alors qu’il estde 28 jours et 23 heures pour un disque dur SAS ! Cela veut dire qu’au lieu d’attendre 1s pour atteindre une donnée en mémoire vive, le processeur doit attendre 30s, s’il doit la chercher dans une carte flash locale et près d’un mois s’il lui faut aller la lire sur le disque dur… Le pire est que ce différentiel va croissant : le temps d’accès aux mémoires continue de s’améliorer, tandis que celui des disques durs n’a plus évolué depuis bientôt dix ans. Comme l’explique Sébastien Verger, l’ironie est que les utilisateurs comprennent bien la différence, en tout cas ceux qui ont équipé leur ordinateur d’un SSD, le simple remplacement du disque dur par un disque à mémoire Flash apportant une amélioration des performances sans commune mesure avec celle permise par l’utilisation d’un processeur plus rapide.

2-1

Un usage judicieux des disques SSD permet d’améliorer considérablement la performance d’une baie de stockage tout en réduisant ses coûts.

Fort de ce constat, EMC entend utiliser au mieux les bénéfices que procure la mémoire Flash sur l’ensemble de la chaine reliant serveurs et stockage. Le premier étage auquel EMC a appliqué la technologie est bien évidemment les baies de stockage. Selon Sébastien, il suffit d’installer 2,5 à 10% de la capacité d’une baie de stockage en disques SSD pour doper de façon significative les performances, tout en abaissant les coûts et la consommation électrique.

L’utilisation de disques SSD permet en effet d’éliminer le recours à des disques SAS coûteux mais aussi très gourmands en énergie et de les remplacer par des disques SATA. Le système de tiering des baies permet alors de cibler les opérations d’I/O les plus intensives vers la Flash et d’utiliser le pool de capacité SATA pour le stockage « à froid » des données.

Actuellement, plus de 60% des baies VNX et VNXe vendues embarquent un étage de stockage Flash.

perspective

La baie 100% Flash « Project X » promet des performances explosives couplées à une très grande simplicité d’utilisation

L’étape suivante sur le marché des baies de stockage est l’arrivée d’une nouvelle catégorie de systèmes de stockage basés à 100% sur la mémoire Flash afin d’offrir des performances aussi élevées que possible. Comme l’explique Sébastien, c’est le « Project X » d’EMC, qui s’appuie sur la technologie rachetée à l’Israélien XtremIO.

La baie de stockage qui en résultera promet des performances inconnues à ce jour, à savoir plus d’un million d’IOPS soutenus, et ce quel que soit le type d’application. La baie combine l’usage de la Flash comme support de stockage avec un usage systématique de la déduplication de données (afin de minimiser l’usure de la Flash mais aussi d’optimiser l’usage de la capacité). Son architecture étant basée sur un concept scale-out, la performance augmente avec le nombre de nœuds dans le cluster de stockage. L’objectif est aussi de faire en sorte que la baie s’auto-optimise de telle sorte qu’elle ne nécessite ni tuning ni allocation manuelle de ressources.

Olivier Parcollet, architecte IT chez Keolis, par ailleurs connu pour son rôle au sein du groupe utilisateurs de VMware, est venu témoigner de son utilisation d’un prototype de la baie ProjectX lors d’EMC Forum. Avec deux nœuds, Olivier Parcollet indique « que le niveau de performance est assez bluffant ».

Lors de tests de montée en charge, Keolis a ainsi pu obtenir plus de 200 000 IOPs avec une latence d’1 ms, sur l’ensemble des volumes depuis un seul serveur vSphere 5 sur une carte bi-canal FC 4Gb/s. Et on rappelle que ce n’était qu’avec deux nœuds et une version prototype loin d’être finalisée…

Gérer la performance en optimisant l’usage de la Flash de bout en bout Si EMC continue à développer les usages de la Flash dans les baies de stockage, nous mettons aussi l’accent sur le bon usage de la Flash sur l’ensemble de la chaine reliant les serveurs au stockage.

Nous avons ainsi fait un premier pas dans le monde des serveurs en introduisant cet été la carte VFCache. Cette carte PCI-express Flash s’installe directement dans le serveur qui accède aux données, et elle offre des performances optimale car le bus sur lequel elle est installée (PCI Express) a une latence bien inférieur aux connexions SAN. et sur un bus qui n’est pas un goulet d’étranglement. Elle peut être utilisée à la fois comme un étage de stockage local à très hautes performances ou comme un cache vers les données stockées sur les baies de stockage. La proximité de la Flash du processeur permet notamment de minimiser la latence d’accès et de répondre aux besoins des applications les plus sensibles à la latence comme les applications transactionnelles, les bases de données… Les tests menés sous Oracle ont ainsi montré des gains de performance de l’ordre d’un facteur de trois. L’un des problèmes de l’usage des cartes PCIe Flash est toutefois leur coût. EMC travaille donc à une appliance de cache partagée baptisée « Thunder » dont l’objectif est de permettre la mutualisation de plusieurs cartes Flash VF Cache par un grand nombre de serveurs. « Thunder » s’appuiera sur un bus de communication rapide comme Infiniband pour communiquer avec les serveurs et minimiser ainsi au mieux l’impact du bus de connexion sur la latence. L’idée est de servir de cache partagé et sécurisé pour un groupe de serveurs en frontal des baies de stockage SAN.

3

Des technologies qui pourront être déployées individuellement ou conjointement avec un degré d’optimisation supplémentaire grâce à l’utilisation de la technologie FAST de bout en bout. Ces technologies pourront bien sûr être déployées de façon autonome.

Mais EMC travaille à coordonner leurs bénéfices individuels au sein d’une architecture optimisée. L’idée est d’appliquer la technologie de tiering FAST de bout en bout entre les serveurs et les baies de stockage par exemple pour pré-peupler le cache d’une carte VFCache avec des données d’une baie de stockage. L’objectif est bien sûr d’assurer une protection maximale des données tout en optimisant encore un peu plus les performances.

RecoverPoint et VPLEX à l’honneur en 2013

La mémoire Flash n’était toutefois pas la seule technologie à l’honneur lors de l’intervention de Sébastien à EMC Forum.

Ce dernier a aussi mis en avant la technologie de réplication continue RecoverPoint, de plus en plus utilisée par les clients pour protéger leurs environnements de stockage et garantir un redémarrage aussi rapide que possible avec aussi peu de pertes de données que possible en cas de sinistre sur leur centre informatique primaire. L’année 2013 devrait voir la généralisation du support de RecoverPoint à l’ensemble des gammes EMC (la technologie est déjà supportée sur VNX et VMAX).

4-1

VPLEX rend possible la mise en oeuvre d’architectures virtualisées distribuées entre deux datacenters géographiquement distant en mode actif/actif.

Sébastien Verger a aussi évoqué les progrès considérables réalisés par EMC avec son « appliance » de stockage distribué VPLEX qui permet de concevoir des architectures informatiques virtualisées réparties entre plusieurs datacenters en mode actif-actif.

L’année 2013 devrait voir se concrétiser la promesse d’une version globale de VPLEX (la technologie supporte déjà le fonctionnement sur deux datacenters en mode actif/actif sur une distance de 200km)..

Etude EMC Big Data Index : un intérêt réel des entreprises en dépit d’un retard à l’allumage de la DSI

Au delà des résultats du Big Data Index, l’étude que j’ai lancé récemment avec IDC, a le mérite de mettre en avant la maturité et l’attitude face au Big Data, à la fois des responsables des études et métiers et des responsables informatiques et d’infrastructures.

Une méthodologie adaptée à la réalité de ces projets informatiques qui impliquent fortement les métiers. Le Big Data, c’est un renversement de modèle qui va au delà de transformation de l’IT. Et cela nécessitera sans doute la mise en place d’organisation métier et technologique spécifique complètement dédiée à gestion de l’information.

Des projets qui commencent juste à émerger dans les entreprises françaises

Le Big Data Index a pour objectif de mieux analyser la perception qu’ont les entreprises françaisesdu Big Data et la réalité des initiatives prises dans ce domaine. Il repose sur deux enquêtes conduites en France en juin et juillet 2012 auprès de 160 entreprises de plus de 200 salariés.

Deux populations ont été interrogées : les études et les responsables informatiques et d’infrastructures. Sans surprise au regard de la jeunesse du concept, 70% des entreprises interrogées par IDC  déclarent ne pas avoir d’initiatives ou de réflexion dans le domaine du Big Data et une entreprise sur deux a le sentiment d’être très en retrait avec la moyenne de la profession dans ce domaine.

Les raisons invoquées se situent principalement dans le domaine des compétences et de l’organisation. Le manque d’expertise technologique en interne est ainsi perçu comme le principal frein et pour 64% des équipes IT, ayant répondu à cette étude, la collaboration des services informatiques et des entités métiers devront être renforcées.

Comme le confirme l’étude, le Big Data commence juste à émerger en France. Ainsi, 18 %  seulement des entreprises interrogées déclarent utiliser des solutions « Big Data » et 11% ont prévu ou envisagent d’investir.

Pour IDC, les initiatives de ces entreprises « volontaristes » restent limitées par leur nombre et par l’ampleur des projets. Seule une moitié déploie, ou a déployé, des technologies portant à la fois sur les dimensions «stockage» et «analytiques» du Big Data.

Tendance plus positive pour l’avenir : 31% des entreprises interrogées ont esquissé, avec des entités métier, des réflexions et des discussions de type « Big Data », voire des déploiements technologiques, sans pour autant revendiquer une démarche « Big Data », ni même faire le lien avec le concept.

Un intérêt plus large et plus dynamique qu’il n’y paraît

Si, selon les résultats de l’étude, plus de la moitié des projets Big Data concernent l’analyse financière (58%), donc le secteur bancaire, et la connaissance client (53%),  on sait que la réalité du Big Data sur le terrain est plus diversifiée que cela. EMC insiste notamment beaucoup sur le coté prédictif du Big Data et pas seulement dans les secteurs innovants du commerce électronique ou de la publicité en ligne. Dans le temps, les domaines concernés seront plus vastes que l’on ne peut l’imaginer aujourd’hui.

Pour le prouver, nous avons d’ailleurs lancé différentes initiatives visant à illustrer tous les champs d’application possibles au quotidien. Au delà des usages possibles, le Big Data est perçu comme un projet très innovant.

Selon 75% des responsables « Etudes » interrogés, « le Big Data pourrait contribuer à renforcer d’une manière ou d’une autre la capacité d’innovation de leur organisation ». Grâce aux technologies Big Data, 59% estiment qu’elles pourraient tirer parti de données jusqu’alors inaccessibles. 40% indiquent que le Big Data rend possible de nouveaux modèles économiques basés sur la réactivité et l’interactivité en temps réel.

En conclusion, les résultats de l’étude témoignent encore d’une différence de maturité et d’intérêt pour le Big Data entre les entités « métiers » et « informatiques » de l’entreprise, mais aussi entre les équipes « Etudes » et « Infrastructures » au sein des directions informatiques.

La grande majorité des responsables des départements Etudes, interrogés au sein des Directions des Services Informatiques françaises, observent une demande croissante de la part des entités métier (Marketing et Finance en particulier). Et ce, en matière d’analyses plus fines et plus fréquentes, portant à la fois sur les volumes de données croissants, mais également sur des contenus plus variés.

XtremIO : Stockage SSD avec déduplication inline, le couple idéal ? par Olivier Parcollet

Post intégral extrait du blog DS45 d’Olivier Parcollet

LUNDI 3 SEPTEMBRE 2012

Update : les grands esprits se rencontrent, à lire sur le MagIT

Quoique l’on dise, le disque SSD a révolutionné le petit monde du stockage qui ne s’attendait pas à de tels niveaux de performance. Certains à l’image de NetAPP décide de l’utiliser en tant qu’extension de cache dans le contrôleur voir dans le serveur en amont, d’autres mixent SSD et traditionnels disques mécaniques avec l’artificiel et très consommateur auto-tiering de données plaçant les blocs les plus consultés à l’instar de Dell Compellent ou de l’EMC VNX, Oracle Pillar lui préfère laisser à l’application le soin de piloter le placement et puis enfin, la dernière voie est encore l’apanage du leader EMC qui s’oriente vers des baies 100% native SSD à l’instar de VFcache ou mieux d’XtremIO.

Ca tombe bien. Pour compléter nos chères baies Oracle Pillar mixte SATA/SSD, accélérer le provisionning VDI, remplacer et optimiser les fenêtres de sauvegardes, nous avons choisis de nous orienter vers de l’XtremIO.

Nous avons donc déployé depuis presque deux mois la solution avec un retour d’expérience plutôt positif.

La bête se présente sous la forme d’un contrôleur d’administration 1U dédié qui pilote des enclosures 4U SSD pourvues de ports Fiber Channel et 10 Giga Ethernet.

Après avoir paramétré l’adresse IP d’administration, la machine se pilote au travers d’une interface java à télécharger sur votre PC. Après s’être identifié, on accès à un ‘Dashboard’ présentant une synthèse des informations sur l’état de santé de la machine, son taux d’utilisation et le niveau de performance délivré. Pas de chichi, juste ce qu’il faut ! L’ajout d’un ou plusieurs volumes est simplissime, s’opérant au travers de l’icône dédiée.

On peut indiquer l’alignement lors de la création des volumes

Il suffit ensuite de mapper les volumes aux machines dédiées … ou pas, c’est-à-dire à tous.

J’adore le côté VM-Aware de la machine qui supporte nativement VAAI : gestion du multipathing et de la perf sans prise de tête quoi …

Le niveau de performance est assez bluffant. Au cours de nos tests de montée en charge, nous avons pu obtenir plus de 200 000 IOPs avec une latence d’1 ms sur l’ensemble des volumes depuis un seul serveur vSphere 5 sur une carte bi-canal FC 4Gb/s !

Associé en tant que volume à l’outil de sauvegarde Netbackup 7.5, voir Datarecovery, on atteint les 3,2To/H sauvegardés soit un débit soutenu de 800 Mo/s le tout dans un volume tout rikiki : bref, c’est le beurre, l’argent du beurre et puis peut-être même un peu la crémière …

Merci Olivier !!

Publié par dunestudio45 – DS45

Liens vers ce message Libellés : XtremIO retour expérience vSphere VMware EMC

VMworld2012 : Avamar une solution de backup 100% intégrée à VMware vSphere5

Développée de concert par les équipes engineering EMC et VMware et intégrée dans VMware vSphere 5.1, la solution s’appuie sur la technologie EMC Avamar pour garantir des sauvegardes simples et efficaces de machines virtuelles. La déduplication en plus !! Adieu VDR …

le remplacement de VMware Data Recovery -VDR par vSphere Data Protection -VDP, une nouvelle technologie de sauvegarde et de restauration de VM basée sur la technologie Avamar d’EMC.

VMware a en fait choisi d’embarquer le savoir-faire de déduplication d’Avamar dans une nouvelle appliance de sauvegarde qui permet de gérer de façon centralisée les sauvegardes et les restaurations de jusqu’à 100 VM (avec un maximum de 2To de stockage physique consommé).

vSphere Data Protection s’appuie sur les API de sauvegarde de vSphere (VADP) et sur sa technologie de Changed Block Tracking, qui permet par analyse différentielle de suivre quels blocs de données ont été modifiés entre deux sauvegardes. Le logiciel couple ce support avec la technologie de déduplication d’Avamar pour réduire de façon conséquente les temps de sauvegarde et les volumes de données à transférer et à stocker. VDP ne nécessite l’installation d’aucun agent additionnel dans les VM (ce qui est aussi le cas pour Avamar) et l’administration s’effectue simplement via une interface web intégrée au nouveau client web d’administration. Notons pour les administrateurs vSphere que l’appliance nécessite la présence de vCenter Server 5.1, mais peut gérer la sauvegarde de VM déployées sur des serveurs ESXi 4.x ou 5.0.

  • VMware vSphere Data Protection est intégré avec vSphere, peut être mis en oeuvre aisément et être géré directement à partir du nouveau vSphere Web Client.
  • VMware vSphere Data Protection procure une protection optimale des données pour les environnements virtualisés de petites et moyennes entreprises, exploitant pour ce faire des technologies de sauvegarde et de déduplication.
  • VMware a recours au logiciel EMC Avamar en guise de technologie de base de sa solution VMware vSphere Data Protection.
  • VMware continue d’impliquer étroitement divers partenaires dans le développement de solutions de sauvegarde et de restauration qui s’appuient sur des API vSphere Storage for Data Protection.

Communiqué de presse:

EMC Corporation (NYSE: EMC) et VMware (NYSE: VMW) lancent VMware vSphere Data Protection™, une nouvelle solution de sauvegarde et de restauration destinée au VMware vSphere® 5.1 et qui s’appuie sur le logiciel de sauvegarde et de déduplication Avamar d’EMC®. La nouvelle solution est l’un des éléments constitutifs de VMware vSphere 5.1. VMware Sphere Data Protection remplace vSphere Data Recovery – qui était, précédemment, l’un des composants de vSphere – afin de conférer aux environnements VMware une protection de données plus conviviale, plus fiable et d’un meilleur rapport prix/performances.

VMware vSphere Data Protection a recours à la technologie des logiciels Avamar d’EMC, notamment à ses potentiels de déduplication de blocs de longueur variable, de support intégral de la fonction de Changed Block Tracking et de restauration s’effectuant en une seule opération. Ces potentiels ont pour effet de minimiser la consommation de ressources de stockage, de réduire les temps de sauvegarde et de garantir des restaurations rapides. VMware vSphere Data Protection peut être géré directement à partir du vSphere Web Client. La solution exploite les API vSphere Storage for Data Protection afin d’autoriser les sauvegardes sans agent.

Outre le lancement de VMware vSphere Data Protection, VMware fait progresser le développement de technologies novatrices de sauvegarde, destinées aux environnements virtuels, en procurant un support optimal à son vaste réseau de partenaires. VMware continue d’investir dans les API vSphere Storage for Data Protection afin de garantir une intégration transparente des technologies de sauvegarde et de restauration de fournisseurs tiers avec son VMware vSphere.

Citations:

Bogomil Balkansky, premier vice-président Cloud Infrastructure Products de VMware: “Les procédures de sauvegarde et de restauration représentent un aspect critique des implémentations de virtualisation. Le choix fait en faveur des technologies EMC Avamar nous permet d’offrir de meilleurs potentiels de sauvegarde et de restauration aux utilisateurs et ce, directement à partir de VMware vSphere®. VMware vSphere Data Protection™ procure une importante valeur ajoutée à nos clients et contribue dès lors à différencier encore davantage vSphere 5.1 des offres de la concurrence.”

David Vellante, co-fondateur du Wikibon Project: “L’intégration de la technologie Avamar dans VMware vSphere 5.1 permet aux utilisateurs d’exploiter un potentiel de sauvegarde et de restauration puissant, convivial et intégré, dans le cadre d’environnements virtuels. Les petites sociétés et les départements de grandes entreprises seront les principaux bénéficiaires de cette solution, de même que les organisations qui utilisent pour la première fois les technologies de virtualisation. En ajoutant ces fonctions à sa plate-forme, VMware a clairement donné une nouvelle dimension aux potentiels de sauvegarde et de restauration destinés aux environnements virtuels.”

William “BJ” Jenkins, président de la division Backup Recovery Systems d’EMC: “Avec des produits tels qu’ Avamar, Data Domain® et NetWorker®, EMC s’est ménagé une place de chef de file dans le domaine des sauvegardes et restaurations. Le logiciel de déduplication Avamar est accueilli avec enthousiasme par les utilisateurs VMware qui y voient une solution de sauvegarde et de restauration de niveau entreprise spécialement optimisée pour des environnements VMware. Grâce à l’intégration des fonctions Avamar dans VMware vSphere® Data Protection™, les utilisateurs VMware ont la certitude de pouvoir compter, tant maintenant qu’à l’avenir, sur un outil extrêmement efficace pour protéger leurs machines virtuelles.”

VMworld 2012 : L’innovation continue avec Pat et le BigData et la Virtualisation du Stockage

Pat Gelsinger, le nouveau* PDG de VMware, réaffirme que l’innovation est coeur de la stratégie de la société et qu’il continuera à faire des acquisitions.

* Pat Gelsinger a remplacé Paul Maritz à la tête de VMware depuis le 1er septembre… Paul Maritz prend la responsabilité de la stratégie chez EMC.

Les annonces faites sur la virtualisation du datacenter et sur l’entreprise mobile démontrent que l’innovation est le moteur de l’entreprise. Nous sommes en train de réinventer la façon de créer le datacenter en virtualisant l’ensemble de ses composants. Cela mobilise de l’énergie, des équipes d’ingénieurs pour intégrer l’ensemble de ces évolutions  réalisées en interne, mais aussi par de la croissance organique ». VMworld 2012 a montré une consolidation de ces projets au sein des suites annoncées, vCloud et Horizon.

Pat Gelsinger, CEO de VMware

Pat Gelsinger, CEO de VMware

Big Data et  virtualisation du stockage

Au cours de cet évènement, nous avons néanmoins entendu parler de deux projets, uniquement sur la partie infrastructure. Le premier projet s’appelle Serengeti, il s’agit d’optimiser Hadoop dans un environnement virtualisé.  Une démonstration vidéo est disponible sur YouTube où Hadoop est couplé avec la solution GreenPlum EMC et sur des NAS haut de gamme Isilon, deux autres branches du groupe EMC. L’objectif est de rendre  »scalable » les capacités de Hadoop au sein d’un cluster virtualité.

Le projet Serengeti de VMware
Le projet Serengeti de VMware

Un autre projet pour les infrastructures concerne le stockage. Avec la virtualisation du datacenter, l’éditeur suit attentivement les évolutions de cette brique. Lors de VMworld 2012, il a lancé des pistes de travail sur la virtualisation des LUN, à travers une solution baptisée vVolume. La mémoire flash via les SSD, mais aussi la mémoire cache des serveurs est matière à réflexion à travers la solution vCache. Plus globalement, la notion de vSAN a été également évoquée. Ces éléments ont juste été annoncés furtivement par Pat Gelsinger, lors de la présentation de vCloud Suite, sans donner plus de détails.

Des acquisitions toujours à l’étude

Les deux grandes annonces ont donc éclipsé ces différents projets, mais VMware place toujours l’innovation au coeur de sa stratégie. Pat Gelsinger a réaffirmé ce principe et indique que pour cela la société « continuera à faire des acquisitions ».Il reste bien évidement muet sur les profils des potentiels candidats.  Il souligne néanmoins la bonne opération avec le rachat de Nicira, qui est « pionnier dans la virtualisation du réseau et nous donne une position importante dans le domaine du SDN ». Au point d’inquiéter Cisco ? Non répond le dirigeant « nous avons un partenariat privilégié avec Cisco et nous travaillons avec lui sur les sujets réseaux au sein de VCE ».

EMC FORUM 2012 : UNE NOUVELLE VISION DE L’ENTREPRISE, DE L’IT ET DE VOTRE MÉTIER


Paris – 15 novembre 2012

Carrousel Du Louvre

EMC FORUM 2012 : UNE NOUVELLE VISION DE L’ENTREPRISE, DE L’IT ET DE VOTRE MÉTIER

Préparez vous pour l’EMC Forum version 2012 ! Cette édition 2012  va transformer votre vision de l’avenir de l’entreprise, de l’IT et de votre métier.

  • Découvrez pourquoi le cloud computing et la virtualisation sont essentiels pour faire face aux nouvelles réalités IT.
  • Découvrez comment vous pouvez optimiser votre business grâce au Big Data.
  • Approfondissez les connaissances, les compétences et découvrez les dernières innovations qui vous aideront à relever les défis à venir.

EMC Forum est une occasion unique de rencontrer vos paires mais aussi d’échanger avec les experts et intervenants EMC Français et internationaux, et d’assister à des témoignages et études de cas sur les dernières solutions intégrées d’EMC et de nos partenaires.

Vous pourrez également tester nos solutions en situation sur le vLab!

Inscrivez-vous dès aujourd’hui à EMC Forum 2012 pour ne pas manquer cet événement!

PARIS

Date : 15 novembre 2012

Horaire : 08:30 – 17:30

Lieu

Carrousel Du Louvre
99, rue de Rivoli
75001, Paris

Plan d’accès >>

 Rejoignez la Communauté
Gardez le contact avec EMC et suivez toutes les actualités d’EMC, de ses partenaires, mais aussi de vos homologues !
Suivez EMC sur les réseaux sociaux

FacebookTwitterFlickrYouTubeEMC Community Network

Les architectures NAS en cluster séduisent de plus en plus les entreprises?

Alors que le volume de données non structurées progresse à un rythme exponentiel dans les entreprises, une technologie de stockage séduit de plus en plus les responsables informatiques. Il s’agit de la technologie NAS en cluster aussi appelée scale-out NAS. L’intérêt pour cette technologie est principalement liée à son évolutivité et à sa simplicité. Elle promet en effet aux entreprises de pouvoir faire évoluer leur capacité de stockage d’une façon quasi illimitée, par simple ajout de nœuds de stockage additionnels à leur infrastructure existante et ce sans avoir à remplacer l’infrastructure d’origine. Ce concept simple est aujourd’hui mis en œuvre dans un nombre croissant de systèmes et séduit de plus en plus les acheteurs de systèmes de stockage de données.

Un système de stockage évolutif assemblé à partir de multiples noeuds physiques

Le principe même d’un système de stockage NAS en cluster est qu’il se compose de plusieurs nœuds physiques reliés entre eux par des interfaces réseaux rapides (Infiniband ou 10 Gigabit Ethernet) et assemblés en un seul système de stockage NAS logique par le biais d’un système d’exploitation en général propriétaire. Du fait de sa nature « scale-out », un système de stockage NAS en cluster évolue par simple ajout de nœud. Cette opération permet à la fois d’augmenter la capacité du système mais aussi ses performances ainsi que, dans certains cas, sa tolérance aux pannes. Les plus évolutifs des systèmes de stockage en cluster ont la capacité de gérer plusieurs Petaoctets de données sur plus de 100 nœuds, mais ils sont accessibles et gérés comme un seul système grâce à l’utilisation d’un système de fichiers distribués ou d’un système d’espace de nommage global.

Un système de stockage NAS en cluster se compose typiquement de multiples nœuds de stockage x86 disposant d’une configuration standard (quantité fixe de CPU, de mémoire cache et de disques durs). Lorsque la capacité du système approche la saturation, l’entreprise peut faire évoluer sa configuration existante en ajoutant simplement de nouveaux nœuds au cluster existant. Cette approche évolutive est particulièrement adaptée aux entreprises devant gérer de grandes quantités de fichiers, mais elle séduit aussi de plus en plus des entreprises ayant des besoins de stockage généralistes. Le scale out NAS permet en effet des migrations en douceur, plus simplement que les systèmes traditionnels.

Architecture typique d’un système NAS en Cluster EMC Isilon (ici l’architecture inclut un cluster performant à base de noeuds Isilon S200 et un second cluster à base de noeuds Isilon NL relié au premier par un lien WAN pour l’archivage et la reprise après sinistre).

Historiquement, les systèmes de stockage NAS en cluster ont connu leurs premiers succès dans le monde des applications nécessitant des bandes passantes et un débit élevé, notamment dans les secteurs des médias, du divertissement, du calcul à haute performance, de la bio-informatique, et dans le secteur de la recherche pétrolière et gazière. Mais ce succès s’étend désormais bien au delà de ces secteurs. Les premiers systèmes scale-out n’étaient en effet pas optimisés pour les applications traditionnelles d’entreprises, mais les évolutions apportées récemment par certains spécialistes du genre comme la division Isilon d’EMC, promettent d’ouvrir ces systèmes à un panel d’usage bien plus large, comme la virtualisation.

Une adoption qui s’accélère dans le monde des applications d’entreprise

Terri McClure, un analyste senior chez Enterprise Strategy Group (ESG) à Milford, explique ainsi qu’au fur et à mesure que les constructeurs optimisent leurs systèmes pour obtenir de meilleurs résultats avec les applications d’entreprises, les architectures NAS en cluster apparaîssent de plus en plus dans les datacenters d’entreprise.

Le leader emblématique du secteur Isilon Systems, racheté par EMC à la fin 2010. Isilon propose trois options de nœuds différentes pour ses systèmes en cluster : les nœuds de la série S sont conçus pour délivrer des performances élevées pour les applications nécessitant des grands volumes d’entrées/sorties sur de petits fichiers ; les X-Series sont des nœuds intermédiaires conçus pour le stockage d’un moins grand nombre de fichiers plus volumineux ; enfin les NL-Series sont des nœuds très capacitifs et économiques conçus pour l’archivage et le stockage en volume de grandes capacités de données. En l’état de la technologie, un système Isilon peut comprendre jusqu’à 144 nœuds pour un total de 15,5 Po de données, stockées dans un système de fichiers unique, ce qui simplifie grandement l’administration. Côté performance, un système à base de nœuds S200 équipé en partie de disques SSD a une capacité maximale inférieure (2 Po), mais offre une bande passante agrégée de 85 Gbit/s et peut traiter 1,2 million d’IOPS NFS, encore une fois avec seul système de couvrant un cluster de 144 nœuds.

Si Isilon est parti avec une bonne longueur d’avance, tous les constructeurs s’intéressent aujourd’hui au monde du stockage en cluster et nombre d’analystes font le pari que cette technologie détrônera à terme les systèmes de stockage NAS traditionnels. Randy Kerns, un analyste chez Evaluator Group à Broomfield, Colorado, est un peu plus prudent et estime qu’il y a beaucoup de cas d’utilisation où les clients préféreront des NAS traditionnels, notamment pour les plus petites configurations. « Il y a de la place pour les deux », a déclaré Kerns. « Je pense que les systèmes scale-out NAS et les NAS traditionnels sont tous les deux là pour longtemps ».

Étiquettes :