Archive

Archive for the ‘DSI’ Category

Etude EMC Big Data Index : un intérêt réel des entreprises en dépit d’un retard à l’allumage de la DSI

Au delà des résultats du Big Data Index, l’étude que j’ai lancé récemment avec IDC, a le mérite de mettre en avant la maturité et l’attitude face au Big Data, à la fois des responsables des études et métiers et des responsables informatiques et d’infrastructures.

Une méthodologie adaptée à la réalité de ces projets informatiques qui impliquent fortement les métiers. Le Big Data, c’est un renversement de modèle qui va au delà de transformation de l’IT. Et cela nécessitera sans doute la mise en place d’organisation métier et technologique spécifique complètement dédiée à gestion de l’information.

Des projets qui commencent juste à émerger dans les entreprises françaises

Le Big Data Index a pour objectif de mieux analyser la perception qu’ont les entreprises françaisesdu Big Data et la réalité des initiatives prises dans ce domaine. Il repose sur deux enquêtes conduites en France en juin et juillet 2012 auprès de 160 entreprises de plus de 200 salariés.

Deux populations ont été interrogées : les études et les responsables informatiques et d’infrastructures. Sans surprise au regard de la jeunesse du concept, 70% des entreprises interrogées par IDC  déclarent ne pas avoir d’initiatives ou de réflexion dans le domaine du Big Data et une entreprise sur deux a le sentiment d’être très en retrait avec la moyenne de la profession dans ce domaine.

Les raisons invoquées se situent principalement dans le domaine des compétences et de l’organisation. Le manque d’expertise technologique en interne est ainsi perçu comme le principal frein et pour 64% des équipes IT, ayant répondu à cette étude, la collaboration des services informatiques et des entités métiers devront être renforcées.

Comme le confirme l’étude, le Big Data commence juste à émerger en France. Ainsi, 18 %  seulement des entreprises interrogées déclarent utiliser des solutions « Big Data » et 11% ont prévu ou envisagent d’investir.

Pour IDC, les initiatives de ces entreprises « volontaristes » restent limitées par leur nombre et par l’ampleur des projets. Seule une moitié déploie, ou a déployé, des technologies portant à la fois sur les dimensions «stockage» et «analytiques» du Big Data.

Tendance plus positive pour l’avenir : 31% des entreprises interrogées ont esquissé, avec des entités métier, des réflexions et des discussions de type « Big Data », voire des déploiements technologiques, sans pour autant revendiquer une démarche « Big Data », ni même faire le lien avec le concept.

Un intérêt plus large et plus dynamique qu’il n’y paraît

Si, selon les résultats de l’étude, plus de la moitié des projets Big Data concernent l’analyse financière (58%), donc le secteur bancaire, et la connaissance client (53%),  on sait que la réalité du Big Data sur le terrain est plus diversifiée que cela. EMC insiste notamment beaucoup sur le coté prédictif du Big Data et pas seulement dans les secteurs innovants du commerce électronique ou de la publicité en ligne. Dans le temps, les domaines concernés seront plus vastes que l’on ne peut l’imaginer aujourd’hui.

Pour le prouver, nous avons d’ailleurs lancé différentes initiatives visant à illustrer tous les champs d’application possibles au quotidien. Au delà des usages possibles, le Big Data est perçu comme un projet très innovant.

Selon 75% des responsables « Etudes » interrogés, « le Big Data pourrait contribuer à renforcer d’une manière ou d’une autre la capacité d’innovation de leur organisation ». Grâce aux technologies Big Data, 59% estiment qu’elles pourraient tirer parti de données jusqu’alors inaccessibles. 40% indiquent que le Big Data rend possible de nouveaux modèles économiques basés sur la réactivité et l’interactivité en temps réel.

En conclusion, les résultats de l’étude témoignent encore d’une différence de maturité et d’intérêt pour le Big Data entre les entités « métiers » et « informatiques » de l’entreprise, mais aussi entre les équipes « Etudes » et « Infrastructures » au sein des directions informatiques.

La grande majorité des responsables des départements Etudes, interrogés au sein des Directions des Services Informatiques françaises, observent une demande croissante de la part des entités métier (Marketing et Finance en particulier). Et ce, en matière d’analyses plus fines et plus fréquentes, portant à la fois sur les volumes de données croissants, mais également sur des contenus plus variés.

EMC FORUM 2012 : UNE NOUVELLE VISION DE L’ENTREPRISE, DE L’IT ET DE VOTRE MÉTIER


Paris – 15 novembre 2012

Carrousel Du Louvre

EMC FORUM 2012 : UNE NOUVELLE VISION DE L’ENTREPRISE, DE L’IT ET DE VOTRE MÉTIER

Préparez vous pour l’EMC Forum version 2012 ! Cette édition 2012  va transformer votre vision de l’avenir de l’entreprise, de l’IT et de votre métier.

  • Découvrez pourquoi le cloud computing et la virtualisation sont essentiels pour faire face aux nouvelles réalités IT.
  • Découvrez comment vous pouvez optimiser votre business grâce au Big Data.
  • Approfondissez les connaissances, les compétences et découvrez les dernières innovations qui vous aideront à relever les défis à venir.

EMC Forum est une occasion unique de rencontrer vos paires mais aussi d’échanger avec les experts et intervenants EMC Français et internationaux, et d’assister à des témoignages et études de cas sur les dernières solutions intégrées d’EMC et de nos partenaires.

Vous pourrez également tester nos solutions en situation sur le vLab!

Inscrivez-vous dès aujourd’hui à EMC Forum 2012 pour ne pas manquer cet événement!

PARIS

Date : 15 novembre 2012

Horaire : 08:30 – 17:30

Lieu

Carrousel Du Louvre
99, rue de Rivoli
75001, Paris

Plan d’accès >>

 Rejoignez la Communauté
Gardez le contact avec EMC et suivez toutes les actualités d’EMC, de ses partenaires, mais aussi de vos homologues !
Suivez EMC sur les réseaux sociaux

FacebookTwitterFlickrYouTubeEMC Community Network

Face au Cloud : évolutions des compétences indispensables !

Le quotidien du responsable informatique d’une entreprise s’apparente à un combat de tous les instants. Le département informatique tout entier subit une transformation en profondeur. Les responsables doivent acquérir de nouvelles compétences et le personnel a besoin de nouvelles formations pour adopter le modèle IT-as-a-Service.

FAIRE FACE À LA CONCURRENCE

Abordons les choses dans l’ordre. Nous entendons fréquemment parler de l’IT-as-a-Service et d’une transformation qui va dans le sens d’une structure orientée services. Alors, quelle est la différence entre le modèle traditionnel dans une entreprise et un département orienté services ?

Je crois qu’il est important de voir plus loin que simplement l’informatique et surtout, de réfléchir à la relation qui existe entre l’entreprise et le service informatique interne. De plus en plus d’utilisateurs métiers considèrent que leur service informatique interne n’est pas l’unique solution pour répondre à leurs besoins. Ils sont plus que jamais disposés à trouver de meilleures solutions, généralement auprès de fournisseurs de services tiers. Le service interne est désormais perçu comme l’un des fournisseurs potentiels ; il ne détient plus le monopole comme par le passé. Si l’on n’y prend garde, une forme « d’informatique parallèle » se développe et pousse les utilisateurs métiers à s’éloigner du département informatique interne pour s’approvisionner ailleurs.

Bien entendu, celui-ci peut tenter de freiner ce comportement en appliquant des règles draconiennes pour les achats informatiques, par exemple, ou en sollicitant la mise en place de règles similaires de la part de la direction. Quoi qu’il en soit, cela ne fait que retarder l’inévitable : tôt ou tard, les départements informatiques devront apprendre à lutter pour conserver leurs clients internes. Ce qui me surprend, c’est que ces départements informatiques existent au sein d’entreprises elles-mêmes incroyablement compétitives. L’idéal serait donc de propager ce même état d’esprit concurrentiel au département informatique.

Nous commençons à utiliser l’expression « orienté services » pour décrire les départements informatiques qui se comportent comme des fournisseurs de services compétitifs et s’éloignent du fonctionnement traditionnel basé sur les projets et la technologie. La structure organisationnelle est différente, de nombreux rôles et compétences associés sont différents, tout comme les mesures et les indicateurs.

Avec un autre angle de vue, on peut dire que les fournisseurs de services concurrentiels ont accès aux mêmes technologies et pools de talents que les départements internes, mais que ce qui les différencie, c’est le modèle.

Avec le temps, de plus en plus de départements informatiques internes vont devoir agir comme leurs concurrents externes et se préparer à rivaliser pour les utilisateurs de l’entreprise.

APPRENDRE DE NOUVEAUX ADVERSAIRES

Ainsi, les intégrateurs de systèmes traditionnels et les fournisseurs de services, autrefois alliés du responsable informatique, sont devenus ses adversaires. Qu’est-ce que le département informatique peut apprendre de ces nouveaux concurrents ?

Les fournisseurs de services ont l’habitude de la concurrence. Par exemple, ils s’entourent d’unités de vente et de marketing, alors que les départements informatiques internes n’y songent même pas. Ils consacrent beaucoup de temps à l’étude des services souhaités par les clients et ne cessent d’améliorer leurs offres. Pour fournir leurs services plus efficacement, ils se lancent dans une course effrénée à la standardisation des technologies et des processus. Encore une fois, les départements informatiques internes ne sont pas rompus à ce genre d’exercice.

Les fournisseurs de services informatiques concurrentiels investissent dans des méthodes qui incitent à consommer leurs services. En comparaison, seules quelques (voire aucune) ressources d’un département informatique d’entreprise s’emploient à stimuler la consommation des services internes. En général, elles se retrouvent plutôt en position de décourager la consommation informatique, ce qu’un fournisseur externe ne ferait jamais.

Aujourd’hui, il est peu probable qu’un département informatique classique charge une équipe dédiée d’améliorer continuellement son catalogue de services dans l’espoir de favoriser la consommation. Et malgré les efforts mis en place, nous assistons en général à une standardisation implacable de la technologie et des processus de la part des fournisseurs de services, qui vont beaucoup plus loin que leurs homologues en entreprise.

Mais cette attitude est précisément celle que doivent adopter les fournisseurs de services pour augmenter leurs parts de marché.

Et si, comme moi, vous pensez que tôt ou tard, les départements informatiques d’entreprise devront se battre pour garder leurs clients internes, vous en arriverez à penser qu’ils doivent utiliser les mêmes armes.

L’autre point qui a son importance est le changement de mentalité. Dans un monde idéal, le département informatique serait un «créateur-vendeur» qui comprend les besoins de ses clients internes et les oriente vers la solution adaptée : un service fourni en interne ou sous-traité par le département informatique.

TROUVER DES RÉPONSES AUX QUESTIONS FONDAMENTALES

Lorsqu’il m’arrive de discuter de tout ceci avec des responsables informatiques, certains me répondent qu’ils agissent déjà ainsi. Ils fournissent des services aux utilisateurs métiers et, par exemple, sont capables de rendre un nouvel utilisateur opérationnel très rapidement.

C’est possible. Je me retrouve dans les mêmes discussions et en général, ils insistent sur le fait qu’ils peuvent rapidement provisionner une machine virtuelle, ou encore une adresse réseau ou tout autre élément obscur de la pile informatique.

Je crois qu’il est important de souligner ici qu’il s’agit uniquement de quelques composants, et non du service même, surtout si l’on se place du point de vue des consommateurs de ces services.

Prenons un exemple : il n’y a pas si longtemps, pour utiliser un iPad chez EMC, il vous fallait parler au gestionnaire du réseau, au responsable de la messagerie, à l’équipe sécurité, etc. Si vous suiviez le processus à la lettre, vous arriviez tôt ou tard à vos fins. Mais tout ceci était aussi frustrant pour l’utilisateur et pour le département informatique.

Comparons avec ce qui se passe maintenant : si vous utilisez un iPad, notre équipe informatique vous offre un service complet, avec tout ce qu’il vous faut, une sorte de « service centralisé », beaucoup plus facile à utiliser et qui évite d’avoir à courir à gauche et à droite pendant des jours ou des semaines. Je pense aussi que tout est plus facile pour l’équipe informatique.

Il me semble également important de souligner que dans bien des cas, le principal consommateur de services informatiques est justement le département informatique. Nous avons remarqué que les projets informatiques des grandes entreprises évoluent plus rapidement lorsqu’ils sont soutenus par un catalogue étoffé de services à la demande à l’intention des professionnels de l’informatique concernés. Même si vous décidez de conserver l’interface traditionnelle orientée projets entre l’informatique et l’entreprise, il est largement possible d’organiser les fonctions associées selon le modèle IT-as-a-service.

Lorsque vous commencez à envisager l’IT-as-a-service, quelques questions fondamentales très épineuses se posent.

Comment identifier et créer ce service ? Comment le justifier et le payer ? Comment le mettre à jour et l’améliorer en permanence ? Comment le commercialiser et le mettre en valeur auprès des utilisateurs potentiels ?

Nous en arrivons aux défis les plus intéressants, car ils impliquent une nouvelle fonction qui n’existe que dans très peu de départements informatiques.

DÉVELOPPER DE NOUVELLES COMPÉTENCES NON TECHNIQUES

Venons-en au coeur du problème : les principales compétences requises pour le directeur informatique et son équipe. Est-il possible de conserver la même équipe, ou devons-nous rechercher de nouveaux profils ?

Je crois que l’on peut définir deux catégories : les domaines où il est possible d’intégrer les rôles existants en les faisant évoluer, et ceux qui nécessitent de tout nouveaux rôles. La seconde catégorie est sans conteste plus problématique que la première.

Si vous disposez déjà d’une équipe efficace dédiée à la virtualisation, sachez que les personnes qui la composent sont généralement tout à fait compétentes pour le passage au modèle de fournisseur de services cloud, tout au moins du point de vue technologique. À titre d’exemple, EMC propose une certification « architecte du cloud » destinée aux architectes expérimentés maîtrisant la virtualisation, le stockage, la mise en réseau, la sécurité, etc., qui les aide à concevoir les modèles dont ils ont besoin pour créer des pools d’infrastructure partagés de grande taille.

Autre exemple : l’ingénierie des processus. Si vous disposez d’une solide équipe chargée de l’ingénierie des processus, il ne sera pas très difficile de la former aux processus de gestion clés du nouveau modèle. Évoquons également les responsables de projets applicatifs qui organisent les tâches autour de projets spécifiques. Ils doivent apprendre à utiliser et consommer des services du catalogue au lieu de s’en tenir à leurs propres environnements dédiés.

Dans cette optique, nous avons mis en place une formation sur les concepts du cloud pour le personnel informatique en général afin qu’il se rende compte de la nouvelle tournure des événements.

Il s’agit sans doute de domaines relativement familiers pour le département informatique, ces compétences étant d’une nature encore assez technique. Mais il existe probablement d’autres domaines plus difficiles à aborder, car entièrement nouveaux.

C’est vrai. C’est le cas, par exemple, de la fonction d’analyste métier, qui sert d’interface clé entre le département informatique et l’entreprise. Traditionnellement, ces personnes transmettent les exigences et l’état d’avancement des projets entre les différents services. Avec la nouvelle organisation, elles représentent désormais la force de vente du fournisseur de services informatiques interne. Il s’agit d’un profil très différent qui fait plus appel à des qualités d’engagement qu’à des connaissances étendues.

Autre exemple : l’équipe chargée de définir et d’améliorer en continu les offres du catalogue de services. Autrement dit, les gestionnaires de produits qui essaient d’anticiper les souhaits des consommateurs. Ici aussi, on parle de compétences que l’on ne trouve pas dans la configuration traditionnelle d’un service informatique, mais tout à fait courantes dans la sphère commerciale.

Suivant la nouvelle tendance, le modèle financier de l’informatique est lui aussi très différent : l’objectif du département informatique est de créer les services recherchés par les consommateurs plutôt que de limiter leur consommation, ce qui, lorsqu’on y réfléchit, ne devrait pas faire partie de ses prérogatives. Le département informatique devrait exclusivement se consacrer à créer des services attractifs et compétitifs. Dans l’idéal, le département financier devrait être chargé de rationner la consommation informatique, de la même manière qu’il rationne les dépenses de personnel, les déplacements et d’autres postes économiques.

Je pourrais citer d’autres exemples, mais je pense que vous avez saisi l’essentiel. L’un des services les plus recherchés que nous proposons aide nos clients à évaluer leurs pools de talents et niveaux de maturité actuels en vue de quantifier les efforts et l’investissement qu’ils devront mettre en oeuvre.

Le plus problématique, c’est d’établir une séquence de modèles organisationnels qui autorise une progression logique du modèle informatique actuel vers le modèle émergent, orienté services. Comme la plupart des séquences organisationnelles, elles sont quelque peu différentes, même si elles comportent des éléments structurels similaires.

ALLER DE L’AVANT

Voilà qui ressemble presque à un changement radical. Comment encourager le personnel informatique à aller de l’avant et à acquérir ces compétences non techniques ?

Comme vous vous en doutez, la réponse n’est pas simple. Parler ouvertement de la transformation de l’informatique (et des nouvelles opportunités de carrières qui en découlent) est certainement un pas dans la bonne direction.

Le département informatique interne d’EMC s’est vu dans l’obligation de créer des descriptions de postes, évolutions de carrière et modèles de rémunération complètement nouveaux, et nécessaires pour inciter le personnel à acquérir des compétences transversales. À ce moment-là, il n’existait pas beaucoup de modèles externes sur lesquels se baser, mais j’espère que la situation s’est améliorée entre-temps.

Comme la plupart des départements informatiques ne peuvent pas se permettre d’engager du nouveau personnel en nombre, une approche plus progressive consiste à ne pas remplacer un rôle par le même lorsqu’il y a des départs. En d’autres termes, les ressources que vous engagez doivent renforcer le nouveau modèle et non perpétuer l’ancien. Le fait que les rôles de l’ancien modèle cèdent la place à de nouveaux rôles a déjà à lui seul un effet stimulant.

SEULES LES PERSONNES COMPTENT

Il semble bien qu’une grande partie du personnel informatique soit vouée à délaisser son rôle technique en faveur d’un poste basé sur des qualités de consultant. Certains y voient une injustice : la technologie ne constitue-t-elle pas un avantage concurrentiel ?

Je comprends cet état d’esprit, mais à moins d’être effectivement consommée par le département informatique, la technologie reste un avantage théorique et non pratique.

Récemment, nous avons réuni plus de 100 responsables informatiques pendant deux jours pour discuter de la transformation de l’informatique. Tout le monde s’est accordé à dire que la technologie n’est plus le facteur limitant ; il y a bien suffisamment de technologies éprouvées pour prendre en charge les nouveaux modèles.

La vraie question qui était dans tous les esprits concernait les personnes : quels talents, quelles compétences et quels rôles, quel modèle organisationnel et surtout, comment mettre tout cela en place de façon logique et la moins dérangeante possible ?

Bien qu’il n’y ait pas de réponse simple, nous commençons à discerner des schémas récurrents dans l’expérience des personnes qui opèrent des transformations vers une orientation métier axée sur les services. Notre équipe informatique EMC a même créé un acronyme : SOOA (service-oriented organizational architecture), qui signifie architecture organisationnelle orientée services, pour décrire le nouveau modèle et ses différences par rapport à l’ancien.

Certains débattent pour savoir s’il s’agit d’une révolution ou seulement d’une évolution informatique. J’aurais tendance à opter pour l’évolution, soit la conséquence naturelle du fait que l’informatique est sans cesse plus indispensable aux business models et que les consommateurs se rendent compte qu’ils ont encore plus de choix attractifs à leur disposition.

Étiquettes :

EMC promeut la notion de chaine de valeur #BigData !

  • Quelle valeur apporte le big data aux entreprises ?
  • Quels sont les défis qu’il faut surmonter (outils architectures, infrastructures, technologiques) ?
  • Le big data se limite-t-il au décisionnel ? Quelle pertinence existe-t-il entre le cloud et le big data ?

 

Un constat s’impose : le big data n’a de sens que dans l’usage et l’exploitation des analyses dans les processus métiers.

Le big data n’est pas une simple démonstration technologique. L’explosion de la volumétrie des données est sans précédente,35,2 zeta octets à l’horizon 2020 et la donnée non structurée représente désormais 90 % de nos données !

Pour manipuler, stocker, traiter, analyser, cette masse d’informations structurées et non structurées, il faut des outils adaptés. Une donnée non exploitée n’a aucune valeur pour l’entreprise.

“Big Data ne concerne ni la création de contenu, ni sa consommation. Il s’agit d’analyser toutes les informations liées au contenu” précise IDC.

Un exemple : un responsable marketing dans le B2C exécute des analyses et organise son CRM autour des données clients disponibles au sein du système d’information. Aujourd’hui, il doit prendre en compte les informations présentes au travers de sources externes : dans les réseaux sociaux pour effectuer des agrégations/corrélations, des analyses comportementales, de la géolocalisation, des études macro ou micro économiques, des résultats de recherches démographiques, etc.

Cette masse d’information est une pression supplémentaire pour les DSI. En 2020, le volume des données sera multiplié par 50 mais avec des équipes techniques limitées et des contraintes budgétaires toujours fortes.

La chaine de valeur proposée par big data : un enjeu crucial pour les entreprises!

Spécialiste si il en est de la gestion des volumes, EMC préconise la mise en place d’une chaine de valeur autour du big data.

C’est en effet à travers ce concept qu’il défend une nouvelle manière de penser la donnée, son utilisation dans le modèle économique de l’entreprise. Car le big data c’est d’abord la possibilité offerte aux organisations d’obtenir les données stratégiques pour prendre des décisions et agir rapidement. Par exemple, comment proposer en temps réel du ticketing ciblé à des clients de sites internet ? Comment afficher une campagne publicitaire répondant aux attentes, aux envies d’un internaute ? Il faut pouvoir agir et réagir immédiatement. Les actions marketing reposent sur les capacités à collecter et à traiter les informations pertinentes et à fournir des analyses immédiatement.

Pour EMC, la chaine de valeur du big data repose sur trois éléments :

– Collecter, stocker les données : partie infrastructure

– Analyser, corréler, agréger les données : partie analytique.  L’analyse hyper performante en temps réel quelque soit l’importance du volume de données.

– Exploiter, afficher l’analyse big data : comment exploiter les données et les analyses, comment monétiser le résultat, comment partager ces informations cruciales pour l’entreprise ? Comment les utilisateurs peuvent afficher et utiliser les résultats.

Cette démarche nécessite une infrastructure big data propre aux données, des outils d’analyses et les capacités à agir (moteur d’action). Le spécialiste du stockage couvre dès aujourd’hui l’ensemble de la dimension big data mais veut aller au-delà des fameux 3V défini par Gartner : volume, variété, vélocité.

Car le big data n’a de sens que s’il est exploité et utilisé. Il ne faut pas se focaliser sur la technologie mais aussi et surtout l’usage. C’est là que se trouve la valeur de la donnée. Cette problématique est adressée à travers l’Action Engine (moteur d’action). L’objectif du moteur d’action est de diffuser en temps réel la quintessence de l’information – ce qui en fait la richesse – aux métiers et aux utilisateurs (après traitements des données et des analyses).

EMC Documentum est la colonne vertébrale de cette chaine de valeur. Cette solution va apprécier la donnée pour permettre de prendre des décisions à travers des processus métiers (c’est là qu’intervient Big Data Action Engine).

Acteur global de l’exploitation de la donnée EMC pose les fondations technologiques du big data avec l’infrastructure et les outils d’analyse et de traitement :

Sur le stockage, il faut une infrastructure à forte montée en charge et automatisée, capable de supporter plusieurs petaoctets de données tout en ayant des performances linéaires.

La gamme Isilon s’adapte parfaitement aux contraintes de capacité, de performances et de montée en charge. Hadoop, le framework big data de référence est disponible sur la plate-forme. La gamme Atmos répond aux besoins en termes d’infrastructures distribuées fonctionnant en ilots de stockage (un tenant, plusieurs systèmes) ou présentant un pool unique de stockage (plusieurs tenants, un seul système).

Sur la partie analytique EMC abat ses cartes par le biais de la solution Greenplum. Disponible sous la forme d’un logiciel traditionnel ou d’une appliance (HW et SW), Greenplum propose la solution idéale pour le Bigdata analytique. Complément indispensable pour l’analyse des données non structurées, Greenplum intègre nativement une version supporté du framework Hadoop.

Le cloud computing démocratise l’usage du big data!

De quelle manière une entreprise, une startup, une TPE / Web, un site de ecommerce peut mettre en œuvre du big data sans investir dans les infrastructures ? La réponse est le cloud computing. Le stockage des données et leurs analyses consomment énormément de ressources et les pics d’activité sont difficilement absorbables pour une infrastructure classique. Les services cloud (IaaS ou PaaS) permettent alors de prendre le relai et de mobiliser les ressources nécessaires en quelques minutes.

Pour une petite entreprise ou une startup, le cloud est l’infrastructure flexible idéale. Il est facile de provisionner des instances, de souscrire à du stockage supplémentaire pour répondre aux besoins immédiats de l’activité de l’entreprise. Surtout, les traitements et analyses se déportent aussi sur le cloud computing. De plus en plus d’outils analytiques sont disponibles sous forme de services cloud. Hadoop est disponible chez de nombreux fournisseurs de IaaS et de PaaS. Et les services SaaS et services cloud s’intègre avec le big data pour afficher et exploiter les analyses.

Étiquettes : , ,

Le VDI, une approche salvatrice pour le BYOD

La virtualisation de postes de travail s’impose aujourd’hui comme l’approche la plus pragmatique pour les entreprises qui souhaitent mettre en place une stratégie BYOD.

L’enjeu : être à même de fournir un environnement de travail aux employés, quel que soit le terminal utilisé, le lieu et le moyen de connexion.

Pour répondre aux besoins de collaborateurs de plus en plus mobiles, l’entreprise doit être en mesure de délivrer des applications sur tout type de périphérique. La virtualisation de postes de travail est aujourd’hui la réponse la plus rapide à cette demande.

Le BYOD (« Bring Your Own Device », littéralement, amenez votre propre terminal au bureau), est devenu une tendance lourde d’évolution de l’IT dans les entreprises. Apparu à la fin des années 2000, le BYOD avait à l’origine une signification plus restrictive qu’actuellement.

Au tout début, il s’agissait pour les employés d’acquérir eux-mêmes le terminal de leur choix et de pouvoir l’utiliser librement au bureau (moyennant une compensation financière de l’entreprise). L’idée était alors que l’entreprise puisse déployer des applications ou des environnements de travail sécurisés sur ces postes, tout en laissant l’employé libre de contrôler son environnement personnel.

Les débuts du BYOD avaient ainsi permis à quelques grandes sociétés américaines de faciliter la réintroduction massive du Macintosh au sein de leur parc (on pense à des sociétés comme Cisco, Citrix, VMware, EMC…).En quelques années, néanmoins, le concept de BYOD s’est considérablement élargi, notamment du fait de l’irruption massive dans le paysage des postes clients des nouveaux terminaux nomades. Aujourd’hui, l’abréviation décrit la possibilité offerte à tout employé de se connecter à ses applications depuis tout type de terminal fixe ou nomade et depuis tout lieu.

On estime aujourd’hui qu’un peu plus de 2 milliards de nouveaux terminaux mobiles devraient être mis en service dans le monde d’ici 2015. Une large partie d’entre eux sera aussi utilisée dans le cadre de l’entreprise du fait de l’adoption croissante du modèle.

Autant dire que la vague du BYOD est une réalité, et que les entreprises ne pourront échapper au déferlement de terminaux qu’elles n’envisageaient même pas de supporter il y a encore deux ans tels que les smartphones Android et iPhone ou les tablettes, telles que l’iPad. Déjà, pas un jour ne s’écoule sans qu’un employé ou un dirigeant, ne demande l’accès à ses applications au travers de son périphérique nomade favori. Et pour le service informatique, répondre systématiquement non à toutes ces demandes n’est plus une option.

De plus en plus, l’IT doit donc trouver des moyens pour déployer sur tout type de terminal les éléments essentiels de l’environnement de travail des salariés.

L’idéal serait bien sûr que toutes les applications soient à la fois optimisées pour toute forme de terminal, fixe ou mobile, tactile ou non. On en est encore très très loin. De plus en plus la virtualisation de postes clients apparaît donc comme une approche pragmatique pour la mise en œuvre de projets BYOD.

Le VDI : des bénéfices reconnus

La virtualisation des postes de travail s’appuie sur la virtualisation pour faire fonctionner sur des serveurs les environnements de travail des utilisateurs. Ces environnements sont déployés à l’intérieur de machines virtuelles dédiées, dont l’affichage est ensuite déporté sur l’écran du terminal de l’utilisateur.

Avec la virtualisation du poste de travail, on découple l’environnement de travail du poste de travail lui-même ce qui permet de retirer plusieurs grands bénéfices. Le premier est que l’administration des postes clients se trouve grandement simplifiée, puisque l’essentiel de l’administration s’effectue sur les VM centralisées dans le datacenter.

Le stockage, la sauvegarde et la protection des environnements de travail peuvent ainsi être centralisés, de même que la protection des données. Ces dernières ne résident plus sur les postes de travail – dans la pratique certaines données peuvent être stockées localement mais sous forme chiffrée – et ne peuvent donc être dérobées par simple vol du PC.

En fait, en couplant les solutions VDI de VMware et Citrix aux solutions de RSA Security, on peut assurer une étanchéité quasi parfaite de l’infrastructure et garantir ainsi la protection du patrimoine informationnel de l’entreprise, une tâche quasi-impossible à réaliser avec des environnements informatiques traditionnels. Le second bénéfice est le découplage avec le système d’exploitation client du terminal de l’utilisateur.

Ainsi, on peut très bien donner accès à la dernière version de Windows dans l’environnement virtualisé, sans avoir à déployer Windows 7 partout sur les postes clients. Un simple PC sous Windows XP, un terminal en mode client léger, un Mac ou une tablette (iPad ou Android) accèdent tout aussi bien à l’environnement de travail, pour peu que leur résolution d’écran soit suffisante.

À l’extrême on peut même envisager d’accéder à son environnement via un téléphone mobile, ce qui peut dépanner, à défaut de servir de moyen d’accès principal. Ce découplage du système d’exploitation local a d’autres bénéfices, comme celui de pouvoir redonner un accès très rapide au SI à un salarié en cas de perte ou de panne de sa machine. Il suffit en effet de lui fournir un PC de dépannage pour se connecter à l’environnement virtualisé et le salarié retrouve instantanément son environnement de travail dans l’état où il l’avait laissé, avec toutes ses données.

La mise en place d’une architecture VDI est simple lorsque le déploiement est limité à quelques dizaines de postes, mais requiert plus de vigilance lorsque le déploiement porte sur quelques centaines ou plusieurs milliers de postes.

Les aspects réseau et stockage notamment doivent être particulièrement soignés, le stockage pouvant représenter jusqu’à 40 % du coût d’un déploiement VDI (du fait de la centralisation). De même la gestion des profils utilisateurs doit être soignée afin que chaque utilisateur dispose d’une configuration adaptée à ses besoins.

Face à la montée en puissance des grands projets (plusieurs milliers ou dizaines de milliers de postes), en mode cloud privé ou en mode infogéré, EMC a conçu une série d’architectures de références qui sont le produit des expériences acquises sur plusieurs centaines de déploiements clients. Ces architectures de références s’incarnent aussi dans les récents systèmes VSPEX (pour Citrix XenDesktop et pour VMware View).

L’objectif d’EMC avec ces architectures est de proposer à ses clients un socle sur lequel ils vont pouvoir appuyer leurs propres déploiements.

Des solutions optimisées pour la virtualisation des postes de travail

Toutes ces architectures tirent parti de capacités des baies unifiées VNX parfaitement adaptées aux exigences des environnements de postes de travail virtualisés.

Les baies de stockage unifié VNX embarquent des fonctions particulièrement adaptées au déploiement de projets de virtualisation de postes de travail.  

Unisphere, l’interface d’administration des VNX dispose ainsi de fonctions adaptées à la virtualisation de postes de travail. Ces fonctions spécifiques viennent appuyer certaines capacités natives telles que Fast Cache. Contrairement aux architectures de cache de certains concurrents qui ne fonctionnent qu’en lecture, Fast Cache permet d’utiliser la capacité SSD des baies VNX comme cache en lecture et écriture : cela se révèle particulièrement important pour la virtualisation des postes de travail car dans les environnements VDI les écritures représentent en moyenne 80 % des entrées sorties. Cette aptitude à tirer parti des disques SSD installés dans les baies permet aussi d’absorber les pics d’entrées/sorties correspondant aux « tempêtes de démarrage » (ou boot storm) caractéristiques des environnements VDI.

Une baie EMC VNX faisant usage de FAST peut ainsi « booter » l’équivalent de 1 000 desktop virtuels en moins de 8 minutes. Mais EMC ne se limite pas à la seule fourniture du stockage et couvre un bien plus large spectre fonctionnel dans la chaîne VDI.

EMC au sens large couvre en effet l’intégralité de la chaîne VDI, du stockage, à la sécurité, en passant par les hyperviseurs et les logiciels de virtualisation de poste de travail (via VMware), les serveurs (via les systèmes unifiés vBlocks de VCE et les VSPEX), la sauvegarde et la protection des données (Avamar) et la sécurisation de points clés de la chaîne de virtualisation, dont l’authentification et la sécurisation des données de l’entreprise (RSA).

En France EMC a travaillé sur de multiples projets VDI, s’impliquant aussi bien dans les phases d’audit et d’assessment, que dans la conception d’architectures, la mise en œuvre de  « proof of concept » ou le déploiement à grande échelle. Il est également à noter qu’EMC est en interne un utilisateur du VDI. À ce jour, plus de 3 000 collaborateurs bénéficient de la technologie dont environ la moitié d’utilisateurs nomades.

Le VDI chez EMC permet notamment aux salariés de choisir librement leur poste de travail (Mac ou PC) sans que cela n’ait d’impact sur leur aptitude à accéder aux applications de l’entreprise.

Notons enfin pour terminer que Citrix, lui-même a retenu une solution EMC basée sur les baies VNX pour son déploiement de XenDesktop 5, une solution qui est montrée à l’Executive Briefing Center de la firme à Santa Clara.

Les principaux avantages d’un déploiement VDI selon IDC

Selon l’analyste, les entreprises qui ont adopté la virtualisation des postes de travail constatent également des bénéfices importants en termes d’administration, de coûts et de fonctionnalités.

Ces bénéfices peuvent être classés en trois grandes catégories :

Bénéfices quantifiables :

Le fait de faire tourner les environnements utilisateurs dans des VM sur les serveurs permet d’alléger les postes clients, ce qui ouvre la voie à une réduction drastique du coût des postes clients, soit en étendant la durée de vie des postes existants, soit en les remplaçant par des clients légers. L’administration des postes clients virtualisés est aussi largement simplifiée ce qui permet d’optimiser le travail de l’IT.

De plus, la virtualisation des postes de travail peut améliorer la productivité des utilisateurs en augmentant la fiabilité des postes de travail et en réduisant le besoin d’appels au support. IDC indique toutefois que ces gains peuvent être en partie effacés par les coûts nécessaires à la mise en place de l’infrastructure de virtualisation de postes de travail.

Bénéfices fonctionnels :

La virtualisation des postes de travail déplace les données du poste client vers le datacenter et réduit donc au passage les risques de sécurité qui pèsent sur l’organisation. La sauvegarde des données est aussi facilitée par le fait que les données résident dans le datacenter, ce qui permet aussi d’assurer le respect des règles de conformité. La reprise après désastre est aussi simplifiée car l’IT peut très facilement restaurer les postes de travail à leur dernier état connu.

Bénéfices organisationnels :

Les tensions traditionnelles entre l’IT et les autres pans de l’entreprise peuvent être réduites grâce à la virtualisation. Comme les environnements virtualisés sont plus simples à gérer et plus sûrs que les postes traditionnels, l’IT peut laisser plus de liberté aux utilisateurs. Les bureaux virtualisés peuvent aussi contribuer à une meilleure expérience utilisateur, notamment par rapport à celle que procurent des PC vieillissant. Enfin, la virtualisation permet un accès aux environnements de travail depuis tout lieu et à toute heure et ce depuis tout type de périphérique, ce qui peut contribuer à améliorer la satisfaction des utilisateurs.

EMC démocratise l’accès aux infrastructures Cloud Ready pour les PME et ETI avec VSPEX

En proposant à nos partenaires un catalogue d’architectures convergées prêtes à l’emploi, nous poursuivons nos efforts pour            imposer  un changement radical dans la façon d’envisager le déploiement d’infrastructures IT pour nos clients. Avec VSPEX  EMC ne se contente pas de fournir des plans d’architectures prévalidées mais industrialise tout  le cycle qui va de la définition des besoins clients à l’assemblage  des configurations pour les clients.

 

Résultats pour les clients : plus de confiance, de rapidité et d’agilité, moins de risques  !

Le 12 avril, EMC a officiellement dévoilé une nouvelle génération d’architectures pour le déploiements d’infrastructures de cloud mais aussi d’infrastructures applicatives prêtes à l’emploi.

Les architectures « Cloud Ready » EMC

Bien sur VSPEX n’est pas la première incursion d’EMC dans le domaine des infrastrcutures convergées pour le Cloud. Fin 2009, nous introduisions la concept de vBlock et la création de l’entité VCE. Si le vBlock s’impose aujourd’hui comme la meilleure formule et la plus mature des solutions sur le marché, elle reste en retrait vis à vis des PME. Une situation qui évoluera rapidement, mais qui pour l’instant la cantonne dans le domaine des entreprises de plus grande taille.

Le vBlock a fait prendre conscience que les exigences des entreprises en matière d’infra IT évoluaient. A l’instar de l’automobile on n’achète plus sa voiture en kit, en choisissant soigneusement chaque composants indépendamment et qu’on ne bricole pas pendant des semaines dans son garage pour assembler ces composants. Non, on achète (ou on loue, si on est plus OPEX que CAPEX 😊) une véhicule prêt à rouler avec les options que l’on souhaite.

Le vBlock ou VSPEX, c’est pareil. Le résultat est identique, on y passe moins de temps et on est sur que l’on ne va pas se « planter » au premier virage venu….

VSPEX : l’alternative d’EMC auxFlexPod de NetApp ?

Les architectures VSPEX d’EMC pourraient être  comparées aux architectures FlexPod de  NetApp.

En fait il n’en est rien, tant l’ouverture que propose VSPEX en termes de flexibilité au niveau « virtualisation middleware » avec VMware, Microsoft et Citrix, que technologique pour la partie serveurs et réseaux, ou applicatif avec Microsoft, SAP et Oracle, rend la proposition de NetApp presque banale.

Des architectures de références adaptées aux grands scénarios technologiques et applicatifs

Dans la pratique VSPEX est un catalogue d’architectures de référence associant les systèmes de stockage d’EMC à des composants tiers avec en priorité les solutions d’infrastructure de notre allié Cisco, mais éventuellement des composants tiers comme les commutateurs de Brocade, ou les serveurs de Bull ou HP.

Slide28Côté logiciel, les VSPEX ne se limitent pas au seul écosystème VMware, et s’ouvrent aux hyperviseurs de Microsoft et Citrix.  Les configurations sont validées par EMC au sein des VSPEX Labs et certifiées pour délivrer les performances requises (par exemple l’aptitude à délivrer entre 50 et 250 VM, l’aptitude à accueillir de 50 à 2000 postes clients virtualisés, ou à supporter 1000 boites aux lettres Exchange…). A charge pour les partenaires de les assembler selon le plan, de les livrer aux clients et de fournir les services de support associés.

VMwareCiscoCitrixIntelBrocadeMicrosoft

En lançant VSPEX, EMC répond à la demande de ses partenaires revendeurs et intégrateurs, à la recherche d’architectures simples et rapides à mettre en oeuvre sur un marché en fort développement. Selon nous, le marché pour des infrastructures convergentes de type VSPEX serait d’environ d’environ 200 Md$ à l’horizon 2017.

Voir les ressources associées à VSPEX : vidéos VSPEX sur virtualisation et VDI

http://www.emc.com/platform/virtualizing-information-infrastructure/vspex.htm#!resources

Des partenaires européens et un focus sur les PME

En France, Magirus et Azlan font partie des partenaires de lancement de VSPEX et proposent des systèmes conformes aux règles d’architectures d’EMC.  Ces partenaires pourront aussi développer leurs propres variantes de VSPEX, par exemple autour de solutions verticales, et les faire valider par les labs d’EMC. Notons aussi qu’EMC travaille avec Cisco pour que VSPEX intégre les spécifications CVD (Cisco Validated design) de Cisco

Slide34

Dans un premier temps, nous visons le marché des PME et des ETI  avec VSPEX, et concentrons donc nos efforts sur des architectures autour des solutions VNXe et VNX.  Au demeurant les gages de rapidité et de flexibilité apportés par VSPEX sont aussi très séduisants pour les opérateurs du Cloud !

____________________________________________________________________________________________________________

SOLUTIONS DE VIRTUALISATION DES SERVEURS EMC VSPEX POUR LES PME

Accélération de votre transformation informatique avec EMC VSPEX

LE DÉFI : GARANTIR LA DISPONIBILITÉ DES APPLICATIONS

TOUT EN RÉDUISANT LES COÛTS

Les PME sont confrontées au défi suivant : garantir la disponibilité des applications avec des budgets informatiques limités. La virtualisation des serveurs permet de réduire les coûts et d’augmenter la disponibilité, mais pose de nouvelles exigences sur les solutions d’infrastructure de stockage et sauvegarde.

Les systèmes de stockage doivent être en mesure de satisfaire les exigences d’E/S des charges de travail mixtes, comme les serveurs de fichiers, les bases de données, les systèmes de messagerie électronique et d’autres applications. Les administrateurs informatiques sont confrontés à de nombreux défis alors que les environnements virtuels se développent de manière exponentielle et, tout comme le stockage, la sauvegarde

et la restauration de volumes croissants de données comptent parmi les aspects les plus difficiles à gérer. La sauvegarde de l’environnement est une tâche délicate qui peut même devenir un obstacle à tout développement.

LA SOLUTION : VIRTUALISATION DES SERVEURS EMC

VSPEX POUR LES PME

Les architectures modulaires et prévalidées EMC® VSPEXTM intègrent des technologies avancées et éprouvées pour créer des solutions de virtualisation complètes. Elles vous aident à prendre des décisions avisées au niveau des couches d’hyperviseur, de traitement des données et de mise en réseau. VPSEX élimine les problèmes de planification et de configuration liés à la virtualisation des serveurs. Les infrastructures VSPEX vous permettent d’accélérer la transformation de votre infrastructure informatique en garantissant des déploiements plus rapides, une plus grande flexibilité de choix, une plus grande efficacité, ainsi qu’une diminution des risques. Basées sur la plate-forme de stockage unifié VNXeTM d’EMC, les solutions VSPEX offrent des options flexibles issues du portefeuille de produits de sauvegarde nouvelle génération d’EMC, pour répondre à vos exigences spécifiques.

VSPEX SIMPLIFIE VOTRE INFRASTRUCTURE

Les solutions VSPEX utilisent la technologie d’hyperviseur leader du secteur et leurs nombreux points d’intégration avec les technologies de stockage et de sauvegarde d’EMC, en plus du traitement des données et du réseau de votre choix, fournissent une infrastructure simple à gérer.

AVANTAGES CLÉS

Défis

Infrastructure fiable et facile à gérer pour préserver la disponibilité des applications et la réactivité des entreprises

Solution

Les solutions de virtualisation des serveurs prévalidées VSPEX limitent les risques grâce à des technologies de virtualisation, stockage et sauvegarde avancées

Simplicité

  • Solutions prévalidées proposant une intégration étroite avec les technologies d’hyperviseur
  • Provisionnement du stockage des applications basé sur des assistants
  • Gestion centralisée de la sauvegarde et restaurations en une seule étape au niveau fichier, image ou site.Efficacité
    • Plusieurs architectures de solution pour répondre aux différents besoins de dimensionnement et d’évolution
      de vos applications
    • Stockage d’applications avec provisionnement fin, compression et déduplication
    • Accélération des sauvegardes en réduisant la quantité de données déplacées
    • Réduction de l’espace de stockage de sauvegarde requisFlexibilité
      • Hyperviseur, traitement des données et mise en réseau de votre choix
      • Système de stockage unifié proposant les technologies NAS et SAN au sein de la même infrastructure
      • Options logicielles et matérielles flexibles de sauvegarde nouvelle génération

Utilisées avec EMC VNXe, les solutions VSPEX offrent des fonctions innovantes et performantes pour le stockage de fichiers, de blocs et d’objets, dans une solution conviviale, évolutive et entièrement unifiée. Elles proposent également des fonctionnalités de snapshot de type DVR simples pour obtenir des snapshots cohérents avec

les applications.

Utilisées avec EMC Avamar®, les solutions VSPEX vous permettent de sauvegarder et de protéger l’ensemble de votre environnement virtuel, de restaurer des données en une seule étape, ainsi que de gérer les sauvegardes des applications critiques de façon centralisée avec des plug-in spécifiques pour Microsoft® Exchange, SQL® et SharePoint®.

VSPEX AUGMENTE L’EFFICACITÉ

Les solutions VSPEX utilisées avec EMC VNXe garantissent des performances optimales
pour la prise en charge de vos applications. VNXe permet aux entreprises de disposer d’infrastructures SAN et NAS multiprotocoles intégrées dans une seule plate-forme de stockage et gérées de façon efficace au sein d’une interface unique, EMC UnisphereTM.
Le stockage EMC peut être de type provisionnement fin pour empêcher l’allocation excessive de ressources à vos applications. Grâce à la déduplication, EMC offre rapidité, efficacité et évolutivité aux sauvegardes et restaurations d’applications NAS et SAN. EMC Avamar ramène à 2 % la charge de sauvegarde traditionnelle hebdomadaire pouvant s’élever à 200 %. Vous réduisez ainsi considérablement les délais de sauvegarde et augmentez le taux d’utilisation des ressources. Vous réduisez également, par un facteur de 10 à 30, l’espace de stockage de sauvegarde requis pour votre environnement virtuel.

FLEXIBILITÉ INTÉGRÉE

Les solutions prévalidées VSPEX sont conçues pour vous aider à faire les choix appropriés
à votre environnement applicatif. VSPEX fournit des recommandations en matière de dimensionnement et d’évolutivité pour les solutions Microsoft Hyper VTM et VMware vSphere®5.X avec les technologies avancées de traitement des données et réseau associées aux technologies de sauvegarde et de stockage unifié d’EMC. Vous disposez ainsi de la flexibilité et de la puissance requises par votre environnement applicatif virtuel. Grâce

à VSPEX avec VNXe, vous pouvez choisir le type de disque dont vous avez besoin et,
en fonction de votre hyperviseur avec EMC Avamar, vous avez la possibilité d’implémenter les sauvegardes au niveau de l’invité ou de l’image.

LES SOLUTIONS DE VIRTUALISATION DES SERVEURS

VSPEX SONT SIMPLES, EFFICACES ET FLEXIBLES

La disponibilité des applications est de la plus haute importance pour les entreprises de toutes tailles. Le fait de disposer d’une infrastructure simple à gérer et utiliser est essentiel pour que vous puissiez consacrer plus de temps au développement de vos activités et moins de temps à la maintenance de l’infrastructure.

Les solutions VSPEX de virtualisation des serveurs vous permettent de transformer votre infrastructure informatique et d’accélérer votre transition vers la virtualisation.

Étiquettes : ,

Le Cloud computing français : un succès au futur du conditionnel

Il est des tournants dans l’histoire des technologies qu’il faut savoir négocier à temps, si l’on ne veut pas être irrémédiablement laissé sur le bord de la route. L’irruption du Cloud computing sur le terrain de l’informatique d’entreprise fournit enfin à la France l’occasion de montrer de quoi elle capable.

Il est des tournants dans l’histoire des technologies qu’il faut savoir négocier à temps, si l’on ne veut pas être irrémédiablement laissé sur le bord de la route. L’irruption du Cloud computing sur le terrain de l’informatique d’entreprise fournit enfin à la France l’occasion de montrer de quoi elle capable.

Il ne peut être question pour elle de laisser à d’autres la maîtrise absolue d’un domaine aussi prometteur. Il y a là, en effet, pour les entreprises françaises, toutes les entreprises, une formidable opportunité de croissance et d’emploi.

Le bilan du Cloud est certes prometteur, mais jusqu’à présent seuls quelques gros opérateurs de Cloud nord-américains comme Google, Microsoft et Amazon en tirent profit. Mais la partie n’est pas gagnée, car ces géants ne créent pas d’emplois en France…

Il faut par conséquent saluer les brillantes initiatives menées en quelques mois par Orange Business Services avec Andromède, ATOS avec Canopy ainsi que d’autres grands acteurs français avec de vraies créations de valeur et d’emplois à la clé dans l’hexagone. Mais n’oublions pas les vraies avancées de petits et moyens acteurs partout en France avec un coup de cœur particulier pour la société SIGEMS dans le domaine de la santé ou Navaho, Intégra, Colt et Chéops dans des domaines plurisectoriels qui ont réussi sans l’aide de l’État.

L’état au secours du Cloud

Il importe aujourd’hui que tous les responsables, publics et privés, aient pleinement conscience du phénomène et des enjeux que représente le Cloud computing. Dans le Plan numérique 2012, soutenu par le ministre Éric Besson, le gouvernement actuel l’a d’ailleurs bien pris en compte même si, à mon grand regret, la priorité et le financement du grand emprunt ne sont accordés qu’aux grands acteurs. D’une manière générale, les grands acteurs économiques l’ont fait également, mais trop de chefs d’entreprise sous-estiment encore ou méconnaissent ce que le Cloud pourrait leur apporter.

Beaucoup, sans doute, en perçoivent d’abord les inconvénients, possibles ou supposés. On pense naturellement aux emplois que le Cloud pourrait, supprimer dans certains cas. C’est encore l’histoire qui nous l’apprend : chaque innovation technologique importante suscite ce genre de craintes. Mais l’expérience passée démontre aussi qu’après une période d’adaptation, l’innovation se révèle au contraire créatrice d’emplois (référence à la « destruction créatrice » de l’économiste Joseph Schumpeter [1883–1950]. Elle entraîne une mutation des carrières, et valorise des compétences jusque-là ignorées.

Si l’on observe de ce point de vue la situation française, on nourrit peu d’inquiétude pour les toutes prochaines années d’ici au moins à 2014. Une adoption modérée du Cloud par les entreprises surtout les grandes et moyennes ne provoquera pas de destruction d’emplois. Et ce, du fait d’une offre certes croissante, mais toujours limitée par rapport aux besoins en termes de couverture applicative. Les directions informatiques, qui ne sont généralement pas en sureffectif, affecteront le cas échéant les personnes concernées à d’autres missions. Il faut bien considérer que, pour le moment, la part du « Cloud computing » dans les systèmes d’information n’est que de 4% au sein des grandes entreprises et des ETI. En revanche, son développement entrainera des créations d’entreprises et embauches, assez nombreuses dans les petites entreprises propres au Cloud [hébergeurs, éditeurs], et de façon modérée au sein des grosses sociétés opératrices.

2015, zone de danger

Plus avant dans le temps, c’est-à-dire pour la période 2015-2020, et dans l’hypothèse certaine où l’offre Cloud public permettrait de couvrir davantage de besoins applicatifs et en infrastructure au sein des moyennes et grandes entreprises, une destruction relative d’emplois pourrait se produire au sein des entreprises utilisatrices. En revanche, elle serait compensée par des créations, de moyenne importance dans les grandes sociétés du Cloud [SSII, éditeurs et opérateurs], et plus conséquentes dans les plus petites structures [surtout chez les « pure players »] où le potentiel est énorme.

Quoi qu’il en soit, le fait est là : l’ »industrie » du Cloud progresse partout. Pour la France c’est « quitte ou double ». Elle serait d’autant plus coupable de ne pas s’attacher à ce phénomène qu’elle dispose d’atouts remarquables pour s’imposer : une électricité de qualité et bon marché, d’excellentes infrastructures, des experts de grande qualité. Mais considérons aussi l’ensemble des filières concernées par le Cloud comme les télécoms, les acteurs de la sécurité, les éditeurs, les SSII, les hébergeurs. Mais également : le bâtiment pour la construction des Datacenters, les énergies renouvelables, et le secteur de l’éducation pour former des ingénieurs dédiés.

Cloud français : quitte ou double

En conclusion : de toute évidence, le Cloud est et restera un succès durable. Le sera-t-il pour la France ? C’est cette interrogation qui dicte le titre de cet article : le futur est une évidence, car nous ne sommes qu’au début d’une longue histoire. Pour le conditionnel, il s’agit de transformer les essais en cours et de continuer les investissements. La France est condamnée à réussir son Cloud bleu-blanc-rouge. Pourvu que l’élan pris en 2011 perdure et s’amplifie même après les élections. Mais par pitié que l’on n’oublie pas les plus petits acteurs…

Étiquettes : , , ,