Archive

Archive for décembre 2012

2012 in review

Les lutins statisticiens de WordPress.com ont préparé le rapport annuel 2012 de mon blog.

En voici un extrait :

600 personnes ont atteint le sommet de l’Everest en 2012. Ce blog a été vu 9 200 fois en 2012. Pour que chaque personne ayant atteint le somment de l’Everest puisse visiter ce blog, 15 ans auraient été nécessaires.

Cliquez ici pour voir le rapport complet.

Bonne année 2013

Jean-Yves

ANALYSIS : Past, Present and Future Converge at EMC

Je souhaitais partager avec vous une analyse de Charles King. Charles est principal analyst à Pund-IT, il a rédigé cette note dans la foulée du récent Analyst Summit EMC.

 

Past, Present and Future Converge at EMC

 

By Charles King
E-Commerce Times
12/07/12 5:00 AM PT

 

 

 

I came away with from EMC’s 2012 Industry Analyst Summit impressed by how dynamic and elemental the company’s transformation has been since 2001, when Joe Tucci became president and CEO. The past decade has seen EMC essentially move from being a preeminent maker of enterprise storage to becoming a vendor whose interests and influence extend to wherever data resides — which is virtually everywhere.

This year’s EMC Industry Analyst Summit included numerous highlights familiar to regular IT conference attendees: a self-generated report card on the previous year’s activities and a discussion of plans for the year ahead, for example.

Few, however, offer the level of access EMC does by holding candid and unscripted Q&A sessions with senior executives including Chairman and CEO Joe Tucci.

Doing this quietly suggests a level of self-confidence that many of its competitors lack, an ironic point given the histrionic public displays of confidence some seem to prefer.

Past, Present, Future

During the EMC Summit, I attended three roundtables that, in retrospect, seemed to tangibly reflect the company’s past, present and future:

  1. Back-up and Recovery Services (BRS) — If any one EMC division accurately mirrors the company’s past life, it is probably BRS. That’s due to the central role data back-up and recovery has long played in storage. However, BRS is also home to some notable EMC acquisitions, including Legato (i.e. Networker), Avamar and Data Domain. As a result, BRS both reflects a host of EMC achievements and provides insights into how the company stays fresh and innovative.Of recent acquisitions, Avamar (2006) and Data Domain (2009) have easily been the most transformative for BRS. Both focus on data deduplication — a technology that searches, finds and removes duplicate documents and multiple copies of other data from information stores, thus significantly, sometimes radically opening fresh hard drive space, improving back-up/recovery process performance and enhancing ROI.

    Not surprisingly, de-dupe plays well in EMC’s long-held strategy of advocating that customers remove tape storage entirely from their back-up and recovery environments. In fact, more than 1,000 EMC customers have done just that, noted Shane Jackson, the VP of marketing for BRS who hosted the roundtable. Jackson also discussed a number of major BRS customer wins during Q3 2012 and detailed how its new Avamar Business Edition, a dedupe appliance for the mid-market, is gaining traction among clients and channel partners.

  2. VCE — The joint venture owned by EMC and Cisco (with equity stakes held by VMware and Intel), VCE touches several critical IT trends. As the tech industry continues to consolidate, elemental changes are occurring in the characters and cultures of existing and aspiring system vendors. At one end of the scale, Dell is steadily acquiring and developing the assets it needs to deliver end-to-end business IT solutions. At the other end, Oracle’s purchase of faltering Sun Microsystems provided the company the means to set itself up as a software/hardware juggernaut apparently modeled on IBM in the 60s and 70s.Most all system vendors are developing and promoting converged infrastructure solutions designed to maximize performance and business value for specific enterprise use cases, applications and workloads. Occasionally, third-party solutions play a role in these efforts — SAP’s HANA in-memory database is one great example. But more often, solutions consist of vertical stacks of an individual vendor’s assets. Oracle’s Exadata highlights this approach.

    Where does that leave best-of-breed players like EMC and Cisco? They’re pursuing creative partnerships like VCEIDC estimates that while converged infrastructure solutions make up about 6 percent of the enterprise IT market today, they are expected to be a dominant (65 percent) share by 2017, the company’s president, Frank Hauck, noted. So developing ways to effectively pursue that opportunity is critical for EMC and Cisco.

    How are they doing so? VCE’s vBlocks are converged infrastructure solutions based on the partners’ technologies that support central IT drivers for enterprise customers. They include x86 scale-out hardware, emerging workloads like cloud and big data, new applications, including virtual desktop infrastructures (VDI) and next-generation data center design and development. In fact, EMC’s new data center in Durham, NC is based on VCE’s vBlock architecture.

    VCE has more than 550 vBlock customers and is approaching a US$1 billion annual run rate. Just as importantly, the company has 150 partners, including major ISVs and service providers, who support its platforms and market strategies.

  3. RSA — RSA is a division that represents EMC’s future, due in part to the value it delivers today. It also reflects the central — yet continually expanding — role of security in virtually every corner of the IT world. Security is in a state of radical change that will transpire over the next two to four years, noted Brian Fitzgerald, RSA’s VP of marketing.Why? Because the nature of security is changing, and so is the nature of threats. In the past, viruses, worms and other examples of malignant code were often standalone entities. Today, RSA is seeing continually expanding reuse of powerful technologies like Stuxnet when they emerge in the wild, increasing the sophistication of a wide range of threats. RSA also believes a blurring of lines is occurring between groups involved in security threats. As an example, Fitzgerald noted rising collaborations between nation-state hackers — those supported in some way by governments or government entities — and organized crime groups in those same locales.

    What is RSA doing about this? First, it is developing new tools and techniques designed to shorten the dwell time of malignant code when it resides in a target environment quietly collecting information and doing damage.

    « Modern security management is a classic big-data problem, » Fitzgerald noted, suggesting the company may have interesting news to share on the subject at next year’s RSA Conference.

Final Analysis

I came away with from EMC’s 2012 Industry Analyst Summit impressed by how dynamic and elemental the company’s transformation has been since 2001, when Tucci became president and CEO. The past decade has seen EMC essentially move from being a preeminent maker of enterprise storage to becoming a vendor whose interests and influence extend to wherever data resides — which is virtually everywhere.

Much of EMC’s evolution has been due to the more than 40 acquisitions the company completed during that time but more has transpired within. In any case, these strategic developments have certainly delivered practical benefits: In 2002, EMC’s annual revenues were $5.4B, while in 2012, they were quadruple that amount: $21.6B.

Far more importantly, the company’s visionary expansion has left it optimally positioned related to the key trends and opportunities of today’s IT, including the growth of x86-based data center solutions, virtualization becoming a way of life for companies of every size, software as a core solution differentiator, the critical importance of centralized IT management, cloud computing evolution and the crucial nature of information and infrastructure security.

In the Q&A session with Tucci and EMC President, David Goulden, someone asked about EMC’s M&A strategy. Tucci replied, « If you’re going to buy a company, you should remember that the people are as important as the technology, if not more important. Revenues are the least important factor. »

« There’s a huge difference between want and need. You have to focus first on what you need — not what you want. That may come along later, » Tucci said, paraphrasing the Rolling Stones.

By doing just that, Tucci, Goulden, Howard Elias and other EMC leaders have built a company which is difficult at best to beat in its core markets. More importantly, they have fashioned an organization that, while building on the past and maintaining a focus on successfully addressing today’s most critical issues, also keeps its gaze fixed clearly on future opportunities and challenges. 


E-Commerce Times columnist Charles King is principal analyst for Pund-IT, an IT industry consultancy that emphasizes understanding technology and product evolution, and interpreting the effects these changes will have on business customers and the greater IT marketplace. Though Pund-IT provides consulting and other services to technology vendors, the opinions expressed in this commentary are King’s alone.

La révolution du stockage est en route : Quelle vision technologique pour EMC en 2013 ?

A l’occasion d’EMC Forum 2012, Sébastien Verger, notre CTO EMC France, a levé le voile sur les évolutions de l’offre EMC attendues pour 2013 en mettant l’accent, sans trop de surprise pour les amateurs de stockage EMC, sur l’intégration de la technologie Flash de bout en bout entre serveurs et baies de stockage…

La mémoire Flash va jouer un rôle clé dans la transformation des architectures de stockage des prochaines années. C’est ce que Seb a pointé du doigt pendant le keynote  d’EMC Forum 2012 qui se tenait à Paris, au Carrousel du Louvre le 15 novembre dernier.

La raison fondamentale de l’importance de la Flash tient à une question d’architecture des systèmes informatiques : si la performance des processeurs a explosé au cours des dernières années, celle des disques durs n’a pas suivi ce qui fait que le stockage est devenu un goulet d’étranglement pour les performances.

Un goulet qu’il est possible de faire disparaître avec la mémoire Flash.

1

L’impact de la Flash sur les systèmes de stockage est lié à ses caractéristiques uniques en matière de rapport performances/prix.

Pour se faire une idée du fossé qui s’est creusé entre stockage et « compute » il suffit de comparer le temps d’accès d’une mémoire vive, d’un disque dur et d’une mémoire Flash. La première a un temps d’accès de 2 nanosecondes, tandis que le second a un temps d’accès typique de 5 à 6 millisecondes (pour un disque SAS) et du double pour un disque SATA.

Une mémoire Flash de dernière génération, de son côté, a un temps d’accès de l’ordre de 60 nanosecondes. Ecrit ainsi les différences ne sont pas parlantes mais si on les ramène à une échelle plus courante la différence est criante : posons comme hypothèse que le temps d’accès de la mémoire vive est de 1s, ce qui nous amène, en gardant les mêmes proportions, à un temps d’accès pour la mémoire Flash de 30s alors qu’il estde 28 jours et 23 heures pour un disque dur SAS ! Cela veut dire qu’au lieu d’attendre 1s pour atteindre une donnée en mémoire vive, le processeur doit attendre 30s, s’il doit la chercher dans une carte flash locale et près d’un mois s’il lui faut aller la lire sur le disque dur… Le pire est que ce différentiel va croissant : le temps d’accès aux mémoires continue de s’améliorer, tandis que celui des disques durs n’a plus évolué depuis bientôt dix ans. Comme l’explique Sébastien Verger, l’ironie est que les utilisateurs comprennent bien la différence, en tout cas ceux qui ont équipé leur ordinateur d’un SSD, le simple remplacement du disque dur par un disque à mémoire Flash apportant une amélioration des performances sans commune mesure avec celle permise par l’utilisation d’un processeur plus rapide.

2-1

Un usage judicieux des disques SSD permet d’améliorer considérablement la performance d’une baie de stockage tout en réduisant ses coûts.

Fort de ce constat, EMC entend utiliser au mieux les bénéfices que procure la mémoire Flash sur l’ensemble de la chaine reliant serveurs et stockage. Le premier étage auquel EMC a appliqué la technologie est bien évidemment les baies de stockage. Selon Sébastien, il suffit d’installer 2,5 à 10% de la capacité d’une baie de stockage en disques SSD pour doper de façon significative les performances, tout en abaissant les coûts et la consommation électrique.

L’utilisation de disques SSD permet en effet d’éliminer le recours à des disques SAS coûteux mais aussi très gourmands en énergie et de les remplacer par des disques SATA. Le système de tiering des baies permet alors de cibler les opérations d’I/O les plus intensives vers la Flash et d’utiliser le pool de capacité SATA pour le stockage « à froid » des données.

Actuellement, plus de 60% des baies VNX et VNXe vendues embarquent un étage de stockage Flash.

perspective

La baie 100% Flash « Project X » promet des performances explosives couplées à une très grande simplicité d’utilisation

L’étape suivante sur le marché des baies de stockage est l’arrivée d’une nouvelle catégorie de systèmes de stockage basés à 100% sur la mémoire Flash afin d’offrir des performances aussi élevées que possible. Comme l’explique Sébastien, c’est le « Project X » d’EMC, qui s’appuie sur la technologie rachetée à l’Israélien XtremIO.

La baie de stockage qui en résultera promet des performances inconnues à ce jour, à savoir plus d’un million d’IOPS soutenus, et ce quel que soit le type d’application. La baie combine l’usage de la Flash comme support de stockage avec un usage systématique de la déduplication de données (afin de minimiser l’usure de la Flash mais aussi d’optimiser l’usage de la capacité). Son architecture étant basée sur un concept scale-out, la performance augmente avec le nombre de nœuds dans le cluster de stockage. L’objectif est aussi de faire en sorte que la baie s’auto-optimise de telle sorte qu’elle ne nécessite ni tuning ni allocation manuelle de ressources.

Olivier Parcollet, architecte IT chez Keolis, par ailleurs connu pour son rôle au sein du groupe utilisateurs de VMware, est venu témoigner de son utilisation d’un prototype de la baie ProjectX lors d’EMC Forum. Avec deux nœuds, Olivier Parcollet indique « que le niveau de performance est assez bluffant ».

Lors de tests de montée en charge, Keolis a ainsi pu obtenir plus de 200 000 IOPs avec une latence d’1 ms, sur l’ensemble des volumes depuis un seul serveur vSphere 5 sur une carte bi-canal FC 4Gb/s. Et on rappelle que ce n’était qu’avec deux nœuds et une version prototype loin d’être finalisée…

Gérer la performance en optimisant l’usage de la Flash de bout en bout Si EMC continue à développer les usages de la Flash dans les baies de stockage, nous mettons aussi l’accent sur le bon usage de la Flash sur l’ensemble de la chaine reliant les serveurs au stockage.

Nous avons ainsi fait un premier pas dans le monde des serveurs en introduisant cet été la carte VFCache. Cette carte PCI-express Flash s’installe directement dans le serveur qui accède aux données, et elle offre des performances optimale car le bus sur lequel elle est installée (PCI Express) a une latence bien inférieur aux connexions SAN. et sur un bus qui n’est pas un goulet d’étranglement. Elle peut être utilisée à la fois comme un étage de stockage local à très hautes performances ou comme un cache vers les données stockées sur les baies de stockage. La proximité de la Flash du processeur permet notamment de minimiser la latence d’accès et de répondre aux besoins des applications les plus sensibles à la latence comme les applications transactionnelles, les bases de données… Les tests menés sous Oracle ont ainsi montré des gains de performance de l’ordre d’un facteur de trois. L’un des problèmes de l’usage des cartes PCIe Flash est toutefois leur coût. EMC travaille donc à une appliance de cache partagée baptisée « Thunder » dont l’objectif est de permettre la mutualisation de plusieurs cartes Flash VF Cache par un grand nombre de serveurs. « Thunder » s’appuiera sur un bus de communication rapide comme Infiniband pour communiquer avec les serveurs et minimiser ainsi au mieux l’impact du bus de connexion sur la latence. L’idée est de servir de cache partagé et sécurisé pour un groupe de serveurs en frontal des baies de stockage SAN.

3

Des technologies qui pourront être déployées individuellement ou conjointement avec un degré d’optimisation supplémentaire grâce à l’utilisation de la technologie FAST de bout en bout. Ces technologies pourront bien sûr être déployées de façon autonome.

Mais EMC travaille à coordonner leurs bénéfices individuels au sein d’une architecture optimisée. L’idée est d’appliquer la technologie de tiering FAST de bout en bout entre les serveurs et les baies de stockage par exemple pour pré-peupler le cache d’une carte VFCache avec des données d’une baie de stockage. L’objectif est bien sûr d’assurer une protection maximale des données tout en optimisant encore un peu plus les performances.

RecoverPoint et VPLEX à l’honneur en 2013

La mémoire Flash n’était toutefois pas la seule technologie à l’honneur lors de l’intervention de Sébastien à EMC Forum.

Ce dernier a aussi mis en avant la technologie de réplication continue RecoverPoint, de plus en plus utilisée par les clients pour protéger leurs environnements de stockage et garantir un redémarrage aussi rapide que possible avec aussi peu de pertes de données que possible en cas de sinistre sur leur centre informatique primaire. L’année 2013 devrait voir la généralisation du support de RecoverPoint à l’ensemble des gammes EMC (la technologie est déjà supportée sur VNX et VMAX).

4-1

VPLEX rend possible la mise en oeuvre d’architectures virtualisées distribuées entre deux datacenters géographiquement distant en mode actif/actif.

Sébastien Verger a aussi évoqué les progrès considérables réalisés par EMC avec son « appliance » de stockage distribué VPLEX qui permet de concevoir des architectures informatiques virtualisées réparties entre plusieurs datacenters en mode actif-actif.

L’année 2013 devrait voir se concrétiser la promesse d’une version globale de VPLEX (la technologie supporte déjà le fonctionnement sur deux datacenters en mode actif/actif sur une distance de 200km)..