Archive

Archive for the ‘Innovation’ Category

La révolution du stockage est en route : Quelle vision technologique pour EMC en 2013 ?

A l’occasion d’EMC Forum 2012, Sébastien Verger, notre CTO EMC France, a levé le voile sur les évolutions de l’offre EMC attendues pour 2013 en mettant l’accent, sans trop de surprise pour les amateurs de stockage EMC, sur l’intégration de la technologie Flash de bout en bout entre serveurs et baies de stockage…

La mémoire Flash va jouer un rôle clé dans la transformation des architectures de stockage des prochaines années. C’est ce que Seb a pointé du doigt pendant le keynote  d’EMC Forum 2012 qui se tenait à Paris, au Carrousel du Louvre le 15 novembre dernier.

La raison fondamentale de l’importance de la Flash tient à une question d’architecture des systèmes informatiques : si la performance des processeurs a explosé au cours des dernières années, celle des disques durs n’a pas suivi ce qui fait que le stockage est devenu un goulet d’étranglement pour les performances.

Un goulet qu’il est possible de faire disparaître avec la mémoire Flash.

1

L’impact de la Flash sur les systèmes de stockage est lié à ses caractéristiques uniques en matière de rapport performances/prix.

Pour se faire une idée du fossé qui s’est creusé entre stockage et « compute » il suffit de comparer le temps d’accès d’une mémoire vive, d’un disque dur et d’une mémoire Flash. La première a un temps d’accès de 2 nanosecondes, tandis que le second a un temps d’accès typique de 5 à 6 millisecondes (pour un disque SAS) et du double pour un disque SATA.

Une mémoire Flash de dernière génération, de son côté, a un temps d’accès de l’ordre de 60 nanosecondes. Ecrit ainsi les différences ne sont pas parlantes mais si on les ramène à une échelle plus courante la différence est criante : posons comme hypothèse que le temps d’accès de la mémoire vive est de 1s, ce qui nous amène, en gardant les mêmes proportions, à un temps d’accès pour la mémoire Flash de 30s alors qu’il estde 28 jours et 23 heures pour un disque dur SAS ! Cela veut dire qu’au lieu d’attendre 1s pour atteindre une donnée en mémoire vive, le processeur doit attendre 30s, s’il doit la chercher dans une carte flash locale et près d’un mois s’il lui faut aller la lire sur le disque dur… Le pire est que ce différentiel va croissant : le temps d’accès aux mémoires continue de s’améliorer, tandis que celui des disques durs n’a plus évolué depuis bientôt dix ans. Comme l’explique Sébastien Verger, l’ironie est que les utilisateurs comprennent bien la différence, en tout cas ceux qui ont équipé leur ordinateur d’un SSD, le simple remplacement du disque dur par un disque à mémoire Flash apportant une amélioration des performances sans commune mesure avec celle permise par l’utilisation d’un processeur plus rapide.

2-1

Un usage judicieux des disques SSD permet d’améliorer considérablement la performance d’une baie de stockage tout en réduisant ses coûts.

Fort de ce constat, EMC entend utiliser au mieux les bénéfices que procure la mémoire Flash sur l’ensemble de la chaine reliant serveurs et stockage. Le premier étage auquel EMC a appliqué la technologie est bien évidemment les baies de stockage. Selon Sébastien, il suffit d’installer 2,5 à 10% de la capacité d’une baie de stockage en disques SSD pour doper de façon significative les performances, tout en abaissant les coûts et la consommation électrique.

L’utilisation de disques SSD permet en effet d’éliminer le recours à des disques SAS coûteux mais aussi très gourmands en énergie et de les remplacer par des disques SATA. Le système de tiering des baies permet alors de cibler les opérations d’I/O les plus intensives vers la Flash et d’utiliser le pool de capacité SATA pour le stockage « à froid » des données.

Actuellement, plus de 60% des baies VNX et VNXe vendues embarquent un étage de stockage Flash.

perspective

La baie 100% Flash « Project X » promet des performances explosives couplées à une très grande simplicité d’utilisation

L’étape suivante sur le marché des baies de stockage est l’arrivée d’une nouvelle catégorie de systèmes de stockage basés à 100% sur la mémoire Flash afin d’offrir des performances aussi élevées que possible. Comme l’explique Sébastien, c’est le « Project X » d’EMC, qui s’appuie sur la technologie rachetée à l’Israélien XtremIO.

La baie de stockage qui en résultera promet des performances inconnues à ce jour, à savoir plus d’un million d’IOPS soutenus, et ce quel que soit le type d’application. La baie combine l’usage de la Flash comme support de stockage avec un usage systématique de la déduplication de données (afin de minimiser l’usure de la Flash mais aussi d’optimiser l’usage de la capacité). Son architecture étant basée sur un concept scale-out, la performance augmente avec le nombre de nœuds dans le cluster de stockage. L’objectif est aussi de faire en sorte que la baie s’auto-optimise de telle sorte qu’elle ne nécessite ni tuning ni allocation manuelle de ressources.

Olivier Parcollet, architecte IT chez Keolis, par ailleurs connu pour son rôle au sein du groupe utilisateurs de VMware, est venu témoigner de son utilisation d’un prototype de la baie ProjectX lors d’EMC Forum. Avec deux nœuds, Olivier Parcollet indique « que le niveau de performance est assez bluffant ».

Lors de tests de montée en charge, Keolis a ainsi pu obtenir plus de 200 000 IOPs avec une latence d’1 ms, sur l’ensemble des volumes depuis un seul serveur vSphere 5 sur une carte bi-canal FC 4Gb/s. Et on rappelle que ce n’était qu’avec deux nœuds et une version prototype loin d’être finalisée…

Gérer la performance en optimisant l’usage de la Flash de bout en bout Si EMC continue à développer les usages de la Flash dans les baies de stockage, nous mettons aussi l’accent sur le bon usage de la Flash sur l’ensemble de la chaine reliant les serveurs au stockage.

Nous avons ainsi fait un premier pas dans le monde des serveurs en introduisant cet été la carte VFCache. Cette carte PCI-express Flash s’installe directement dans le serveur qui accède aux données, et elle offre des performances optimale car le bus sur lequel elle est installée (PCI Express) a une latence bien inférieur aux connexions SAN. et sur un bus qui n’est pas un goulet d’étranglement. Elle peut être utilisée à la fois comme un étage de stockage local à très hautes performances ou comme un cache vers les données stockées sur les baies de stockage. La proximité de la Flash du processeur permet notamment de minimiser la latence d’accès et de répondre aux besoins des applications les plus sensibles à la latence comme les applications transactionnelles, les bases de données… Les tests menés sous Oracle ont ainsi montré des gains de performance de l’ordre d’un facteur de trois. L’un des problèmes de l’usage des cartes PCIe Flash est toutefois leur coût. EMC travaille donc à une appliance de cache partagée baptisée « Thunder » dont l’objectif est de permettre la mutualisation de plusieurs cartes Flash VF Cache par un grand nombre de serveurs. « Thunder » s’appuiera sur un bus de communication rapide comme Infiniband pour communiquer avec les serveurs et minimiser ainsi au mieux l’impact du bus de connexion sur la latence. L’idée est de servir de cache partagé et sécurisé pour un groupe de serveurs en frontal des baies de stockage SAN.

3

Des technologies qui pourront être déployées individuellement ou conjointement avec un degré d’optimisation supplémentaire grâce à l’utilisation de la technologie FAST de bout en bout. Ces technologies pourront bien sûr être déployées de façon autonome.

Mais EMC travaille à coordonner leurs bénéfices individuels au sein d’une architecture optimisée. L’idée est d’appliquer la technologie de tiering FAST de bout en bout entre les serveurs et les baies de stockage par exemple pour pré-peupler le cache d’une carte VFCache avec des données d’une baie de stockage. L’objectif est bien sûr d’assurer une protection maximale des données tout en optimisant encore un peu plus les performances.

RecoverPoint et VPLEX à l’honneur en 2013

La mémoire Flash n’était toutefois pas la seule technologie à l’honneur lors de l’intervention de Sébastien à EMC Forum.

Ce dernier a aussi mis en avant la technologie de réplication continue RecoverPoint, de plus en plus utilisée par les clients pour protéger leurs environnements de stockage et garantir un redémarrage aussi rapide que possible avec aussi peu de pertes de données que possible en cas de sinistre sur leur centre informatique primaire. L’année 2013 devrait voir la généralisation du support de RecoverPoint à l’ensemble des gammes EMC (la technologie est déjà supportée sur VNX et VMAX).

4-1

VPLEX rend possible la mise en oeuvre d’architectures virtualisées distribuées entre deux datacenters géographiquement distant en mode actif/actif.

Sébastien Verger a aussi évoqué les progrès considérables réalisés par EMC avec son « appliance » de stockage distribué VPLEX qui permet de concevoir des architectures informatiques virtualisées réparties entre plusieurs datacenters en mode actif-actif.

L’année 2013 devrait voir se concrétiser la promesse d’une version globale de VPLEX (la technologie supporte déjà le fonctionnement sur deux datacenters en mode actif/actif sur une distance de 200km)..

Le BigData dévoile un visage humain : EMC Human Face of Big Data

HUMAN FACE of BIG DATA

 

EMC vient de  lancer une opération d’envergure mondiale au travers de son initiative « Measure Our World », qui invite depuis le 26 septembre et pendant 1 semaine les détenteurs de smartphones et tablettes du monde entier à partager et comparer leur vie en temps réel via une application innovante fondée sur un questionnaire interactif.

Cette initiative qui intervient dans le cadre de The Human Face of Big Data est l’un des projets les plus ambitieux jamais créés pour appréhender l’impact sociétal du Big Data et lui apporter une dimension humaine, initié par le photographe Rick Smolan.

Et si vous aviez votre clone de l’autre côté de la planète ???

    Téléchargez l’application ipad ou Android en cliquant l’image

3 ateliers « Mission Control » sont organisés le 2 octobre 2012 à New York, Londres et Singapour. Des experts et précurseurs du Big Data présenteront leur travail et leurs innovations à l’occasion d’un « Big Data Lab » interactif. afin d’analyser, de visualiser et d’interpréter les données collectées.

Et le 8 novembre 2012 aura lieu la journée « Data Detectives », au cours de laquelle des élèves de 6 à 12 ans dans le monde entier seront amenés à collecter et analyser des données sur le monde, ainsi qu’à confronter leurs opinions, réflexions, préoccupations et croyances illustrées par des graphiques et visualisations de données.

Autre point d’orgue du progamme, un ouvrage réunissant photographies, essais et œuvres infographiques sera édité le 20 novembre 2012.  Ce livre présentera 140 cas d’utilisation Big Data aussi extraordinaires qu’innatendus comme des Eléphants de mer équipés d’antennes pour cartographier les océans ; des satellites utilisés pour traquer les moustiques ; la lutte contre la vente de médicaments contrefaits par SMS au Ghana ;un smartphones prédisant un futur état dépressif ; des cartes de crédit permettant de détecter 2 ans à l’avance les risques de divorce ; des comprimés qui transmettent des informations directement du corps au médecin, …

L’initiative en collaboration avec Rick Smollan de AAOP et sponsorisée par EMC est fondée sur le constat que l’accès en temps réel aux données collectées par les satellites et par des milliards de capteurs, étiquettes d’identification par radiofréquences (RFID) et smartphones avec GPS, partout dans le monde, permet à l’homme d’appréhender, de comprendre et d’influer sur des aspects de son existence par des moyens que nos ancêtres n’auraient pas pu imaginer, même dans leurs rêves les plus fous.

Le concept du Big Data est le fruit de travaux menés en laboratoire par les experts et chercheurs les plus éminents de l’industrie informatique. Nous constaterons tous bientôt ses impacts sur nos modes de vie, de travail et de divertissement, ainsi que sur nos comportements. The Human Face of Big Data est le projet extrêmement ambitieux qui vise à expérimenter concrètement l’impact sociétal du Big Data et lui apporter une dimension humaine. Nul doute que ses répercussions seront significatives et durables.

Etude EMC Big Data Index : un intérêt réel des entreprises en dépit d’un retard à l’allumage de la DSI

Au delà des résultats du Big Data Index, l’étude que j’ai lancé récemment avec IDC, a le mérite de mettre en avant la maturité et l’attitude face au Big Data, à la fois des responsables des études et métiers et des responsables informatiques et d’infrastructures.

Une méthodologie adaptée à la réalité de ces projets informatiques qui impliquent fortement les métiers. Le Big Data, c’est un renversement de modèle qui va au delà de transformation de l’IT. Et cela nécessitera sans doute la mise en place d’organisation métier et technologique spécifique complètement dédiée à gestion de l’information.

Des projets qui commencent juste à émerger dans les entreprises françaises

Le Big Data Index a pour objectif de mieux analyser la perception qu’ont les entreprises françaisesdu Big Data et la réalité des initiatives prises dans ce domaine. Il repose sur deux enquêtes conduites en France en juin et juillet 2012 auprès de 160 entreprises de plus de 200 salariés.

Deux populations ont été interrogées : les études et les responsables informatiques et d’infrastructures. Sans surprise au regard de la jeunesse du concept, 70% des entreprises interrogées par IDC  déclarent ne pas avoir d’initiatives ou de réflexion dans le domaine du Big Data et une entreprise sur deux a le sentiment d’être très en retrait avec la moyenne de la profession dans ce domaine.

Les raisons invoquées se situent principalement dans le domaine des compétences et de l’organisation. Le manque d’expertise technologique en interne est ainsi perçu comme le principal frein et pour 64% des équipes IT, ayant répondu à cette étude, la collaboration des services informatiques et des entités métiers devront être renforcées.

Comme le confirme l’étude, le Big Data commence juste à émerger en France. Ainsi, 18 %  seulement des entreprises interrogées déclarent utiliser des solutions « Big Data » et 11% ont prévu ou envisagent d’investir.

Pour IDC, les initiatives de ces entreprises « volontaristes » restent limitées par leur nombre et par l’ampleur des projets. Seule une moitié déploie, ou a déployé, des technologies portant à la fois sur les dimensions «stockage» et «analytiques» du Big Data.

Tendance plus positive pour l’avenir : 31% des entreprises interrogées ont esquissé, avec des entités métier, des réflexions et des discussions de type « Big Data », voire des déploiements technologiques, sans pour autant revendiquer une démarche « Big Data », ni même faire le lien avec le concept.

Un intérêt plus large et plus dynamique qu’il n’y paraît

Si, selon les résultats de l’étude, plus de la moitié des projets Big Data concernent l’analyse financière (58%), donc le secteur bancaire, et la connaissance client (53%),  on sait que la réalité du Big Data sur le terrain est plus diversifiée que cela. EMC insiste notamment beaucoup sur le coté prédictif du Big Data et pas seulement dans les secteurs innovants du commerce électronique ou de la publicité en ligne. Dans le temps, les domaines concernés seront plus vastes que l’on ne peut l’imaginer aujourd’hui.

Pour le prouver, nous avons d’ailleurs lancé différentes initiatives visant à illustrer tous les champs d’application possibles au quotidien. Au delà des usages possibles, le Big Data est perçu comme un projet très innovant.

Selon 75% des responsables « Etudes » interrogés, « le Big Data pourrait contribuer à renforcer d’une manière ou d’une autre la capacité d’innovation de leur organisation ». Grâce aux technologies Big Data, 59% estiment qu’elles pourraient tirer parti de données jusqu’alors inaccessibles. 40% indiquent que le Big Data rend possible de nouveaux modèles économiques basés sur la réactivité et l’interactivité en temps réel.

En conclusion, les résultats de l’étude témoignent encore d’une différence de maturité et d’intérêt pour le Big Data entre les entités « métiers » et « informatiques » de l’entreprise, mais aussi entre les équipes « Etudes » et « Infrastructures » au sein des directions informatiques.

La grande majorité des responsables des départements Etudes, interrogés au sein des Directions des Services Informatiques françaises, observent une demande croissante de la part des entités métier (Marketing et Finance en particulier). Et ce, en matière d’analyses plus fines et plus fréquentes, portant à la fois sur les volumes de données croissants, mais également sur des contenus plus variés.

XtremIO : Stockage SSD avec déduplication inline, le couple idéal ? par Olivier Parcollet

Post intégral extrait du blog DS45 d’Olivier Parcollet

LUNDI 3 SEPTEMBRE 2012

Update : les grands esprits se rencontrent, à lire sur le MagIT

Quoique l’on dise, le disque SSD a révolutionné le petit monde du stockage qui ne s’attendait pas à de tels niveaux de performance. Certains à l’image de NetAPP décide de l’utiliser en tant qu’extension de cache dans le contrôleur voir dans le serveur en amont, d’autres mixent SSD et traditionnels disques mécaniques avec l’artificiel et très consommateur auto-tiering de données plaçant les blocs les plus consultés à l’instar de Dell Compellent ou de l’EMC VNX, Oracle Pillar lui préfère laisser à l’application le soin de piloter le placement et puis enfin, la dernière voie est encore l’apanage du leader EMC qui s’oriente vers des baies 100% native SSD à l’instar de VFcache ou mieux d’XtremIO.

Ca tombe bien. Pour compléter nos chères baies Oracle Pillar mixte SATA/SSD, accélérer le provisionning VDI, remplacer et optimiser les fenêtres de sauvegardes, nous avons choisis de nous orienter vers de l’XtremIO.

Nous avons donc déployé depuis presque deux mois la solution avec un retour d’expérience plutôt positif.

La bête se présente sous la forme d’un contrôleur d’administration 1U dédié qui pilote des enclosures 4U SSD pourvues de ports Fiber Channel et 10 Giga Ethernet.

Après avoir paramétré l’adresse IP d’administration, la machine se pilote au travers d’une interface java à télécharger sur votre PC. Après s’être identifié, on accès à un ‘Dashboard’ présentant une synthèse des informations sur l’état de santé de la machine, son taux d’utilisation et le niveau de performance délivré. Pas de chichi, juste ce qu’il faut ! L’ajout d’un ou plusieurs volumes est simplissime, s’opérant au travers de l’icône dédiée.

On peut indiquer l’alignement lors de la création des volumes

Il suffit ensuite de mapper les volumes aux machines dédiées … ou pas, c’est-à-dire à tous.

J’adore le côté VM-Aware de la machine qui supporte nativement VAAI : gestion du multipathing et de la perf sans prise de tête quoi …

Le niveau de performance est assez bluffant. Au cours de nos tests de montée en charge, nous avons pu obtenir plus de 200 000 IOPs avec une latence d’1 ms sur l’ensemble des volumes depuis un seul serveur vSphere 5 sur une carte bi-canal FC 4Gb/s !

Associé en tant que volume à l’outil de sauvegarde Netbackup 7.5, voir Datarecovery, on atteint les 3,2To/H sauvegardés soit un débit soutenu de 800 Mo/s le tout dans un volume tout rikiki : bref, c’est le beurre, l’argent du beurre et puis peut-être même un peu la crémière …

Merci Olivier !!

Publié par dunestudio45 – DS45

Liens vers ce message Libellés : XtremIO retour expérience vSphere VMware EMC

EMC FORUM 2012 : UNE NOUVELLE VISION DE L’ENTREPRISE, DE L’IT ET DE VOTRE MÉTIER


Paris – 15 novembre 2012

Carrousel Du Louvre

EMC FORUM 2012 : UNE NOUVELLE VISION DE L’ENTREPRISE, DE L’IT ET DE VOTRE MÉTIER

Préparez vous pour l’EMC Forum version 2012 ! Cette édition 2012  va transformer votre vision de l’avenir de l’entreprise, de l’IT et de votre métier.

  • Découvrez pourquoi le cloud computing et la virtualisation sont essentiels pour faire face aux nouvelles réalités IT.
  • Découvrez comment vous pouvez optimiser votre business grâce au Big Data.
  • Approfondissez les connaissances, les compétences et découvrez les dernières innovations qui vous aideront à relever les défis à venir.

EMC Forum est une occasion unique de rencontrer vos paires mais aussi d’échanger avec les experts et intervenants EMC Français et internationaux, et d’assister à des témoignages et études de cas sur les dernières solutions intégrées d’EMC et de nos partenaires.

Vous pourrez également tester nos solutions en situation sur le vLab!

Inscrivez-vous dès aujourd’hui à EMC Forum 2012 pour ne pas manquer cet événement!

PARIS

Date : 15 novembre 2012

Horaire : 08:30 – 17:30

Lieu

Carrousel Du Louvre
99, rue de Rivoli
75001, Paris

Plan d’accès >>

 Rejoignez la Communauté
Gardez le contact avec EMC et suivez toutes les actualités d’EMC, de ses partenaires, mais aussi de vos homologues !
Suivez EMC sur les réseaux sociaux

FacebookTwitterFlickrYouTubeEMC Community Network

Face au Cloud : évolutions des compétences indispensables !

Le quotidien du responsable informatique d’une entreprise s’apparente à un combat de tous les instants. Le département informatique tout entier subit une transformation en profondeur. Les responsables doivent acquérir de nouvelles compétences et le personnel a besoin de nouvelles formations pour adopter le modèle IT-as-a-Service.

FAIRE FACE À LA CONCURRENCE

Abordons les choses dans l’ordre. Nous entendons fréquemment parler de l’IT-as-a-Service et d’une transformation qui va dans le sens d’une structure orientée services. Alors, quelle est la différence entre le modèle traditionnel dans une entreprise et un département orienté services ?

Je crois qu’il est important de voir plus loin que simplement l’informatique et surtout, de réfléchir à la relation qui existe entre l’entreprise et le service informatique interne. De plus en plus d’utilisateurs métiers considèrent que leur service informatique interne n’est pas l’unique solution pour répondre à leurs besoins. Ils sont plus que jamais disposés à trouver de meilleures solutions, généralement auprès de fournisseurs de services tiers. Le service interne est désormais perçu comme l’un des fournisseurs potentiels ; il ne détient plus le monopole comme par le passé. Si l’on n’y prend garde, une forme « d’informatique parallèle » se développe et pousse les utilisateurs métiers à s’éloigner du département informatique interne pour s’approvisionner ailleurs.

Bien entendu, celui-ci peut tenter de freiner ce comportement en appliquant des règles draconiennes pour les achats informatiques, par exemple, ou en sollicitant la mise en place de règles similaires de la part de la direction. Quoi qu’il en soit, cela ne fait que retarder l’inévitable : tôt ou tard, les départements informatiques devront apprendre à lutter pour conserver leurs clients internes. Ce qui me surprend, c’est que ces départements informatiques existent au sein d’entreprises elles-mêmes incroyablement compétitives. L’idéal serait donc de propager ce même état d’esprit concurrentiel au département informatique.

Nous commençons à utiliser l’expression « orienté services » pour décrire les départements informatiques qui se comportent comme des fournisseurs de services compétitifs et s’éloignent du fonctionnement traditionnel basé sur les projets et la technologie. La structure organisationnelle est différente, de nombreux rôles et compétences associés sont différents, tout comme les mesures et les indicateurs.

Avec un autre angle de vue, on peut dire que les fournisseurs de services concurrentiels ont accès aux mêmes technologies et pools de talents que les départements internes, mais que ce qui les différencie, c’est le modèle.

Avec le temps, de plus en plus de départements informatiques internes vont devoir agir comme leurs concurrents externes et se préparer à rivaliser pour les utilisateurs de l’entreprise.

APPRENDRE DE NOUVEAUX ADVERSAIRES

Ainsi, les intégrateurs de systèmes traditionnels et les fournisseurs de services, autrefois alliés du responsable informatique, sont devenus ses adversaires. Qu’est-ce que le département informatique peut apprendre de ces nouveaux concurrents ?

Les fournisseurs de services ont l’habitude de la concurrence. Par exemple, ils s’entourent d’unités de vente et de marketing, alors que les départements informatiques internes n’y songent même pas. Ils consacrent beaucoup de temps à l’étude des services souhaités par les clients et ne cessent d’améliorer leurs offres. Pour fournir leurs services plus efficacement, ils se lancent dans une course effrénée à la standardisation des technologies et des processus. Encore une fois, les départements informatiques internes ne sont pas rompus à ce genre d’exercice.

Les fournisseurs de services informatiques concurrentiels investissent dans des méthodes qui incitent à consommer leurs services. En comparaison, seules quelques (voire aucune) ressources d’un département informatique d’entreprise s’emploient à stimuler la consommation des services internes. En général, elles se retrouvent plutôt en position de décourager la consommation informatique, ce qu’un fournisseur externe ne ferait jamais.

Aujourd’hui, il est peu probable qu’un département informatique classique charge une équipe dédiée d’améliorer continuellement son catalogue de services dans l’espoir de favoriser la consommation. Et malgré les efforts mis en place, nous assistons en général à une standardisation implacable de la technologie et des processus de la part des fournisseurs de services, qui vont beaucoup plus loin que leurs homologues en entreprise.

Mais cette attitude est précisément celle que doivent adopter les fournisseurs de services pour augmenter leurs parts de marché.

Et si, comme moi, vous pensez que tôt ou tard, les départements informatiques d’entreprise devront se battre pour garder leurs clients internes, vous en arriverez à penser qu’ils doivent utiliser les mêmes armes.

L’autre point qui a son importance est le changement de mentalité. Dans un monde idéal, le département informatique serait un «créateur-vendeur» qui comprend les besoins de ses clients internes et les oriente vers la solution adaptée : un service fourni en interne ou sous-traité par le département informatique.

TROUVER DES RÉPONSES AUX QUESTIONS FONDAMENTALES

Lorsqu’il m’arrive de discuter de tout ceci avec des responsables informatiques, certains me répondent qu’ils agissent déjà ainsi. Ils fournissent des services aux utilisateurs métiers et, par exemple, sont capables de rendre un nouvel utilisateur opérationnel très rapidement.

C’est possible. Je me retrouve dans les mêmes discussions et en général, ils insistent sur le fait qu’ils peuvent rapidement provisionner une machine virtuelle, ou encore une adresse réseau ou tout autre élément obscur de la pile informatique.

Je crois qu’il est important de souligner ici qu’il s’agit uniquement de quelques composants, et non du service même, surtout si l’on se place du point de vue des consommateurs de ces services.

Prenons un exemple : il n’y a pas si longtemps, pour utiliser un iPad chez EMC, il vous fallait parler au gestionnaire du réseau, au responsable de la messagerie, à l’équipe sécurité, etc. Si vous suiviez le processus à la lettre, vous arriviez tôt ou tard à vos fins. Mais tout ceci était aussi frustrant pour l’utilisateur et pour le département informatique.

Comparons avec ce qui se passe maintenant : si vous utilisez un iPad, notre équipe informatique vous offre un service complet, avec tout ce qu’il vous faut, une sorte de « service centralisé », beaucoup plus facile à utiliser et qui évite d’avoir à courir à gauche et à droite pendant des jours ou des semaines. Je pense aussi que tout est plus facile pour l’équipe informatique.

Il me semble également important de souligner que dans bien des cas, le principal consommateur de services informatiques est justement le département informatique. Nous avons remarqué que les projets informatiques des grandes entreprises évoluent plus rapidement lorsqu’ils sont soutenus par un catalogue étoffé de services à la demande à l’intention des professionnels de l’informatique concernés. Même si vous décidez de conserver l’interface traditionnelle orientée projets entre l’informatique et l’entreprise, il est largement possible d’organiser les fonctions associées selon le modèle IT-as-a-service.

Lorsque vous commencez à envisager l’IT-as-a-service, quelques questions fondamentales très épineuses se posent.

Comment identifier et créer ce service ? Comment le justifier et le payer ? Comment le mettre à jour et l’améliorer en permanence ? Comment le commercialiser et le mettre en valeur auprès des utilisateurs potentiels ?

Nous en arrivons aux défis les plus intéressants, car ils impliquent une nouvelle fonction qui n’existe que dans très peu de départements informatiques.

DÉVELOPPER DE NOUVELLES COMPÉTENCES NON TECHNIQUES

Venons-en au coeur du problème : les principales compétences requises pour le directeur informatique et son équipe. Est-il possible de conserver la même équipe, ou devons-nous rechercher de nouveaux profils ?

Je crois que l’on peut définir deux catégories : les domaines où il est possible d’intégrer les rôles existants en les faisant évoluer, et ceux qui nécessitent de tout nouveaux rôles. La seconde catégorie est sans conteste plus problématique que la première.

Si vous disposez déjà d’une équipe efficace dédiée à la virtualisation, sachez que les personnes qui la composent sont généralement tout à fait compétentes pour le passage au modèle de fournisseur de services cloud, tout au moins du point de vue technologique. À titre d’exemple, EMC propose une certification « architecte du cloud » destinée aux architectes expérimentés maîtrisant la virtualisation, le stockage, la mise en réseau, la sécurité, etc., qui les aide à concevoir les modèles dont ils ont besoin pour créer des pools d’infrastructure partagés de grande taille.

Autre exemple : l’ingénierie des processus. Si vous disposez d’une solide équipe chargée de l’ingénierie des processus, il ne sera pas très difficile de la former aux processus de gestion clés du nouveau modèle. Évoquons également les responsables de projets applicatifs qui organisent les tâches autour de projets spécifiques. Ils doivent apprendre à utiliser et consommer des services du catalogue au lieu de s’en tenir à leurs propres environnements dédiés.

Dans cette optique, nous avons mis en place une formation sur les concepts du cloud pour le personnel informatique en général afin qu’il se rende compte de la nouvelle tournure des événements.

Il s’agit sans doute de domaines relativement familiers pour le département informatique, ces compétences étant d’une nature encore assez technique. Mais il existe probablement d’autres domaines plus difficiles à aborder, car entièrement nouveaux.

C’est vrai. C’est le cas, par exemple, de la fonction d’analyste métier, qui sert d’interface clé entre le département informatique et l’entreprise. Traditionnellement, ces personnes transmettent les exigences et l’état d’avancement des projets entre les différents services. Avec la nouvelle organisation, elles représentent désormais la force de vente du fournisseur de services informatiques interne. Il s’agit d’un profil très différent qui fait plus appel à des qualités d’engagement qu’à des connaissances étendues.

Autre exemple : l’équipe chargée de définir et d’améliorer en continu les offres du catalogue de services. Autrement dit, les gestionnaires de produits qui essaient d’anticiper les souhaits des consommateurs. Ici aussi, on parle de compétences que l’on ne trouve pas dans la configuration traditionnelle d’un service informatique, mais tout à fait courantes dans la sphère commerciale.

Suivant la nouvelle tendance, le modèle financier de l’informatique est lui aussi très différent : l’objectif du département informatique est de créer les services recherchés par les consommateurs plutôt que de limiter leur consommation, ce qui, lorsqu’on y réfléchit, ne devrait pas faire partie de ses prérogatives. Le département informatique devrait exclusivement se consacrer à créer des services attractifs et compétitifs. Dans l’idéal, le département financier devrait être chargé de rationner la consommation informatique, de la même manière qu’il rationne les dépenses de personnel, les déplacements et d’autres postes économiques.

Je pourrais citer d’autres exemples, mais je pense que vous avez saisi l’essentiel. L’un des services les plus recherchés que nous proposons aide nos clients à évaluer leurs pools de talents et niveaux de maturité actuels en vue de quantifier les efforts et l’investissement qu’ils devront mettre en oeuvre.

Le plus problématique, c’est d’établir une séquence de modèles organisationnels qui autorise une progression logique du modèle informatique actuel vers le modèle émergent, orienté services. Comme la plupart des séquences organisationnelles, elles sont quelque peu différentes, même si elles comportent des éléments structurels similaires.

ALLER DE L’AVANT

Voilà qui ressemble presque à un changement radical. Comment encourager le personnel informatique à aller de l’avant et à acquérir ces compétences non techniques ?

Comme vous vous en doutez, la réponse n’est pas simple. Parler ouvertement de la transformation de l’informatique (et des nouvelles opportunités de carrières qui en découlent) est certainement un pas dans la bonne direction.

Le département informatique interne d’EMC s’est vu dans l’obligation de créer des descriptions de postes, évolutions de carrière et modèles de rémunération complètement nouveaux, et nécessaires pour inciter le personnel à acquérir des compétences transversales. À ce moment-là, il n’existait pas beaucoup de modèles externes sur lesquels se baser, mais j’espère que la situation s’est améliorée entre-temps.

Comme la plupart des départements informatiques ne peuvent pas se permettre d’engager du nouveau personnel en nombre, une approche plus progressive consiste à ne pas remplacer un rôle par le même lorsqu’il y a des départs. En d’autres termes, les ressources que vous engagez doivent renforcer le nouveau modèle et non perpétuer l’ancien. Le fait que les rôles de l’ancien modèle cèdent la place à de nouveaux rôles a déjà à lui seul un effet stimulant.

SEULES LES PERSONNES COMPTENT

Il semble bien qu’une grande partie du personnel informatique soit vouée à délaisser son rôle technique en faveur d’un poste basé sur des qualités de consultant. Certains y voient une injustice : la technologie ne constitue-t-elle pas un avantage concurrentiel ?

Je comprends cet état d’esprit, mais à moins d’être effectivement consommée par le département informatique, la technologie reste un avantage théorique et non pratique.

Récemment, nous avons réuni plus de 100 responsables informatiques pendant deux jours pour discuter de la transformation de l’informatique. Tout le monde s’est accordé à dire que la technologie n’est plus le facteur limitant ; il y a bien suffisamment de technologies éprouvées pour prendre en charge les nouveaux modèles.

La vraie question qui était dans tous les esprits concernait les personnes : quels talents, quelles compétences et quels rôles, quel modèle organisationnel et surtout, comment mettre tout cela en place de façon logique et la moins dérangeante possible ?

Bien qu’il n’y ait pas de réponse simple, nous commençons à discerner des schémas récurrents dans l’expérience des personnes qui opèrent des transformations vers une orientation métier axée sur les services. Notre équipe informatique EMC a même créé un acronyme : SOOA (service-oriented organizational architecture), qui signifie architecture organisationnelle orientée services, pour décrire le nouveau modèle et ses différences par rapport à l’ancien.

Certains débattent pour savoir s’il s’agit d’une révolution ou seulement d’une évolution informatique. J’aurais tendance à opter pour l’évolution, soit la conséquence naturelle du fait que l’informatique est sans cesse plus indispensable aux business models et que les consommateurs se rendent compte qu’ils ont encore plus de choix attractifs à leur disposition.

Étiquettes :

EMC promeut la notion de chaine de valeur #BigData !

  • Quelle valeur apporte le big data aux entreprises ?
  • Quels sont les défis qu’il faut surmonter (outils architectures, infrastructures, technologiques) ?
  • Le big data se limite-t-il au décisionnel ? Quelle pertinence existe-t-il entre le cloud et le big data ?

 

Un constat s’impose : le big data n’a de sens que dans l’usage et l’exploitation des analyses dans les processus métiers.

Le big data n’est pas une simple démonstration technologique. L’explosion de la volumétrie des données est sans précédente,35,2 zeta octets à l’horizon 2020 et la donnée non structurée représente désormais 90 % de nos données !

Pour manipuler, stocker, traiter, analyser, cette masse d’informations structurées et non structurées, il faut des outils adaptés. Une donnée non exploitée n’a aucune valeur pour l’entreprise.

“Big Data ne concerne ni la création de contenu, ni sa consommation. Il s’agit d’analyser toutes les informations liées au contenu” précise IDC.

Un exemple : un responsable marketing dans le B2C exécute des analyses et organise son CRM autour des données clients disponibles au sein du système d’information. Aujourd’hui, il doit prendre en compte les informations présentes au travers de sources externes : dans les réseaux sociaux pour effectuer des agrégations/corrélations, des analyses comportementales, de la géolocalisation, des études macro ou micro économiques, des résultats de recherches démographiques, etc.

Cette masse d’information est une pression supplémentaire pour les DSI. En 2020, le volume des données sera multiplié par 50 mais avec des équipes techniques limitées et des contraintes budgétaires toujours fortes.

La chaine de valeur proposée par big data : un enjeu crucial pour les entreprises!

Spécialiste si il en est de la gestion des volumes, EMC préconise la mise en place d’une chaine de valeur autour du big data.

C’est en effet à travers ce concept qu’il défend une nouvelle manière de penser la donnée, son utilisation dans le modèle économique de l’entreprise. Car le big data c’est d’abord la possibilité offerte aux organisations d’obtenir les données stratégiques pour prendre des décisions et agir rapidement. Par exemple, comment proposer en temps réel du ticketing ciblé à des clients de sites internet ? Comment afficher une campagne publicitaire répondant aux attentes, aux envies d’un internaute ? Il faut pouvoir agir et réagir immédiatement. Les actions marketing reposent sur les capacités à collecter et à traiter les informations pertinentes et à fournir des analyses immédiatement.

Pour EMC, la chaine de valeur du big data repose sur trois éléments :

– Collecter, stocker les données : partie infrastructure

– Analyser, corréler, agréger les données : partie analytique.  L’analyse hyper performante en temps réel quelque soit l’importance du volume de données.

– Exploiter, afficher l’analyse big data : comment exploiter les données et les analyses, comment monétiser le résultat, comment partager ces informations cruciales pour l’entreprise ? Comment les utilisateurs peuvent afficher et utiliser les résultats.

Cette démarche nécessite une infrastructure big data propre aux données, des outils d’analyses et les capacités à agir (moteur d’action). Le spécialiste du stockage couvre dès aujourd’hui l’ensemble de la dimension big data mais veut aller au-delà des fameux 3V défini par Gartner : volume, variété, vélocité.

Car le big data n’a de sens que s’il est exploité et utilisé. Il ne faut pas se focaliser sur la technologie mais aussi et surtout l’usage. C’est là que se trouve la valeur de la donnée. Cette problématique est adressée à travers l’Action Engine (moteur d’action). L’objectif du moteur d’action est de diffuser en temps réel la quintessence de l’information – ce qui en fait la richesse – aux métiers et aux utilisateurs (après traitements des données et des analyses).

EMC Documentum est la colonne vertébrale de cette chaine de valeur. Cette solution va apprécier la donnée pour permettre de prendre des décisions à travers des processus métiers (c’est là qu’intervient Big Data Action Engine).

Acteur global de l’exploitation de la donnée EMC pose les fondations technologiques du big data avec l’infrastructure et les outils d’analyse et de traitement :

Sur le stockage, il faut une infrastructure à forte montée en charge et automatisée, capable de supporter plusieurs petaoctets de données tout en ayant des performances linéaires.

La gamme Isilon s’adapte parfaitement aux contraintes de capacité, de performances et de montée en charge. Hadoop, le framework big data de référence est disponible sur la plate-forme. La gamme Atmos répond aux besoins en termes d’infrastructures distribuées fonctionnant en ilots de stockage (un tenant, plusieurs systèmes) ou présentant un pool unique de stockage (plusieurs tenants, un seul système).

Sur la partie analytique EMC abat ses cartes par le biais de la solution Greenplum. Disponible sous la forme d’un logiciel traditionnel ou d’une appliance (HW et SW), Greenplum propose la solution idéale pour le Bigdata analytique. Complément indispensable pour l’analyse des données non structurées, Greenplum intègre nativement une version supporté du framework Hadoop.

Le cloud computing démocratise l’usage du big data!

De quelle manière une entreprise, une startup, une TPE / Web, un site de ecommerce peut mettre en œuvre du big data sans investir dans les infrastructures ? La réponse est le cloud computing. Le stockage des données et leurs analyses consomment énormément de ressources et les pics d’activité sont difficilement absorbables pour une infrastructure classique. Les services cloud (IaaS ou PaaS) permettent alors de prendre le relai et de mobiliser les ressources nécessaires en quelques minutes.

Pour une petite entreprise ou une startup, le cloud est l’infrastructure flexible idéale. Il est facile de provisionner des instances, de souscrire à du stockage supplémentaire pour répondre aux besoins immédiats de l’activité de l’entreprise. Surtout, les traitements et analyses se déportent aussi sur le cloud computing. De plus en plus d’outils analytiques sont disponibles sous forme de services cloud. Hadoop est disponible chez de nombreux fournisseurs de IaaS et de PaaS. Et les services SaaS et services cloud s’intègre avec le big data pour afficher et exploiter les analyses.

Étiquettes : , ,