Archive

Archive for the ‘Sécurité’ Category

EMC FORUM 2012 : UNE NOUVELLE VISION DE L’ENTREPRISE, DE L’IT ET DE VOTRE MÉTIER


Paris – 15 novembre 2012

Carrousel Du Louvre

EMC FORUM 2012 : UNE NOUVELLE VISION DE L’ENTREPRISE, DE L’IT ET DE VOTRE MÉTIER

Préparez vous pour l’EMC Forum version 2012 ! Cette édition 2012  va transformer votre vision de l’avenir de l’entreprise, de l’IT et de votre métier.

  • Découvrez pourquoi le cloud computing et la virtualisation sont essentiels pour faire face aux nouvelles réalités IT.
  • Découvrez comment vous pouvez optimiser votre business grâce au Big Data.
  • Approfondissez les connaissances, les compétences et découvrez les dernières innovations qui vous aideront à relever les défis à venir.

EMC Forum est une occasion unique de rencontrer vos paires mais aussi d’échanger avec les experts et intervenants EMC Français et internationaux, et d’assister à des témoignages et études de cas sur les dernières solutions intégrées d’EMC et de nos partenaires.

Vous pourrez également tester nos solutions en situation sur le vLab!

Inscrivez-vous dès aujourd’hui à EMC Forum 2012 pour ne pas manquer cet événement!

PARIS

Date : 15 novembre 2012

Horaire : 08:30 – 17:30

Lieu

Carrousel Du Louvre
99, rue de Rivoli
75001, Paris

Plan d’accès >>

 Rejoignez la Communauté
Gardez le contact avec EMC et suivez toutes les actualités d’EMC, de ses partenaires, mais aussi de vos homologues !
Suivez EMC sur les réseaux sociaux

FacebookTwitterFlickrYouTubeEMC Community Network

Le VDI, une approche salvatrice pour le BYOD

La virtualisation de postes de travail s’impose aujourd’hui comme l’approche la plus pragmatique pour les entreprises qui souhaitent mettre en place une stratégie BYOD.

L’enjeu : être à même de fournir un environnement de travail aux employés, quel que soit le terminal utilisé, le lieu et le moyen de connexion.

Pour répondre aux besoins de collaborateurs de plus en plus mobiles, l’entreprise doit être en mesure de délivrer des applications sur tout type de périphérique. La virtualisation de postes de travail est aujourd’hui la réponse la plus rapide à cette demande.

Le BYOD (« Bring Your Own Device », littéralement, amenez votre propre terminal au bureau), est devenu une tendance lourde d’évolution de l’IT dans les entreprises. Apparu à la fin des années 2000, le BYOD avait à l’origine une signification plus restrictive qu’actuellement.

Au tout début, il s’agissait pour les employés d’acquérir eux-mêmes le terminal de leur choix et de pouvoir l’utiliser librement au bureau (moyennant une compensation financière de l’entreprise). L’idée était alors que l’entreprise puisse déployer des applications ou des environnements de travail sécurisés sur ces postes, tout en laissant l’employé libre de contrôler son environnement personnel.

Les débuts du BYOD avaient ainsi permis à quelques grandes sociétés américaines de faciliter la réintroduction massive du Macintosh au sein de leur parc (on pense à des sociétés comme Cisco, Citrix, VMware, EMC…).En quelques années, néanmoins, le concept de BYOD s’est considérablement élargi, notamment du fait de l’irruption massive dans le paysage des postes clients des nouveaux terminaux nomades. Aujourd’hui, l’abréviation décrit la possibilité offerte à tout employé de se connecter à ses applications depuis tout type de terminal fixe ou nomade et depuis tout lieu.

On estime aujourd’hui qu’un peu plus de 2 milliards de nouveaux terminaux mobiles devraient être mis en service dans le monde d’ici 2015. Une large partie d’entre eux sera aussi utilisée dans le cadre de l’entreprise du fait de l’adoption croissante du modèle.

Autant dire que la vague du BYOD est une réalité, et que les entreprises ne pourront échapper au déferlement de terminaux qu’elles n’envisageaient même pas de supporter il y a encore deux ans tels que les smartphones Android et iPhone ou les tablettes, telles que l’iPad. Déjà, pas un jour ne s’écoule sans qu’un employé ou un dirigeant, ne demande l’accès à ses applications au travers de son périphérique nomade favori. Et pour le service informatique, répondre systématiquement non à toutes ces demandes n’est plus une option.

De plus en plus, l’IT doit donc trouver des moyens pour déployer sur tout type de terminal les éléments essentiels de l’environnement de travail des salariés.

L’idéal serait bien sûr que toutes les applications soient à la fois optimisées pour toute forme de terminal, fixe ou mobile, tactile ou non. On en est encore très très loin. De plus en plus la virtualisation de postes clients apparaît donc comme une approche pragmatique pour la mise en œuvre de projets BYOD.

Le VDI : des bénéfices reconnus

La virtualisation des postes de travail s’appuie sur la virtualisation pour faire fonctionner sur des serveurs les environnements de travail des utilisateurs. Ces environnements sont déployés à l’intérieur de machines virtuelles dédiées, dont l’affichage est ensuite déporté sur l’écran du terminal de l’utilisateur.

Avec la virtualisation du poste de travail, on découple l’environnement de travail du poste de travail lui-même ce qui permet de retirer plusieurs grands bénéfices. Le premier est que l’administration des postes clients se trouve grandement simplifiée, puisque l’essentiel de l’administration s’effectue sur les VM centralisées dans le datacenter.

Le stockage, la sauvegarde et la protection des environnements de travail peuvent ainsi être centralisés, de même que la protection des données. Ces dernières ne résident plus sur les postes de travail – dans la pratique certaines données peuvent être stockées localement mais sous forme chiffrée – et ne peuvent donc être dérobées par simple vol du PC.

En fait, en couplant les solutions VDI de VMware et Citrix aux solutions de RSA Security, on peut assurer une étanchéité quasi parfaite de l’infrastructure et garantir ainsi la protection du patrimoine informationnel de l’entreprise, une tâche quasi-impossible à réaliser avec des environnements informatiques traditionnels. Le second bénéfice est le découplage avec le système d’exploitation client du terminal de l’utilisateur.

Ainsi, on peut très bien donner accès à la dernière version de Windows dans l’environnement virtualisé, sans avoir à déployer Windows 7 partout sur les postes clients. Un simple PC sous Windows XP, un terminal en mode client léger, un Mac ou une tablette (iPad ou Android) accèdent tout aussi bien à l’environnement de travail, pour peu que leur résolution d’écran soit suffisante.

À l’extrême on peut même envisager d’accéder à son environnement via un téléphone mobile, ce qui peut dépanner, à défaut de servir de moyen d’accès principal. Ce découplage du système d’exploitation local a d’autres bénéfices, comme celui de pouvoir redonner un accès très rapide au SI à un salarié en cas de perte ou de panne de sa machine. Il suffit en effet de lui fournir un PC de dépannage pour se connecter à l’environnement virtualisé et le salarié retrouve instantanément son environnement de travail dans l’état où il l’avait laissé, avec toutes ses données.

La mise en place d’une architecture VDI est simple lorsque le déploiement est limité à quelques dizaines de postes, mais requiert plus de vigilance lorsque le déploiement porte sur quelques centaines ou plusieurs milliers de postes.

Les aspects réseau et stockage notamment doivent être particulièrement soignés, le stockage pouvant représenter jusqu’à 40 % du coût d’un déploiement VDI (du fait de la centralisation). De même la gestion des profils utilisateurs doit être soignée afin que chaque utilisateur dispose d’une configuration adaptée à ses besoins.

Face à la montée en puissance des grands projets (plusieurs milliers ou dizaines de milliers de postes), en mode cloud privé ou en mode infogéré, EMC a conçu une série d’architectures de références qui sont le produit des expériences acquises sur plusieurs centaines de déploiements clients. Ces architectures de références s’incarnent aussi dans les récents systèmes VSPEX (pour Citrix XenDesktop et pour VMware View).

L’objectif d’EMC avec ces architectures est de proposer à ses clients un socle sur lequel ils vont pouvoir appuyer leurs propres déploiements.

Des solutions optimisées pour la virtualisation des postes de travail

Toutes ces architectures tirent parti de capacités des baies unifiées VNX parfaitement adaptées aux exigences des environnements de postes de travail virtualisés.

Les baies de stockage unifié VNX embarquent des fonctions particulièrement adaptées au déploiement de projets de virtualisation de postes de travail.  

Unisphere, l’interface d’administration des VNX dispose ainsi de fonctions adaptées à la virtualisation de postes de travail. Ces fonctions spécifiques viennent appuyer certaines capacités natives telles que Fast Cache. Contrairement aux architectures de cache de certains concurrents qui ne fonctionnent qu’en lecture, Fast Cache permet d’utiliser la capacité SSD des baies VNX comme cache en lecture et écriture : cela se révèle particulièrement important pour la virtualisation des postes de travail car dans les environnements VDI les écritures représentent en moyenne 80 % des entrées sorties. Cette aptitude à tirer parti des disques SSD installés dans les baies permet aussi d’absorber les pics d’entrées/sorties correspondant aux « tempêtes de démarrage » (ou boot storm) caractéristiques des environnements VDI.

Une baie EMC VNX faisant usage de FAST peut ainsi « booter » l’équivalent de 1 000 desktop virtuels en moins de 8 minutes. Mais EMC ne se limite pas à la seule fourniture du stockage et couvre un bien plus large spectre fonctionnel dans la chaîne VDI.

EMC au sens large couvre en effet l’intégralité de la chaîne VDI, du stockage, à la sécurité, en passant par les hyperviseurs et les logiciels de virtualisation de poste de travail (via VMware), les serveurs (via les systèmes unifiés vBlocks de VCE et les VSPEX), la sauvegarde et la protection des données (Avamar) et la sécurisation de points clés de la chaîne de virtualisation, dont l’authentification et la sécurisation des données de l’entreprise (RSA).

En France EMC a travaillé sur de multiples projets VDI, s’impliquant aussi bien dans les phases d’audit et d’assessment, que dans la conception d’architectures, la mise en œuvre de  « proof of concept » ou le déploiement à grande échelle. Il est également à noter qu’EMC est en interne un utilisateur du VDI. À ce jour, plus de 3 000 collaborateurs bénéficient de la technologie dont environ la moitié d’utilisateurs nomades.

Le VDI chez EMC permet notamment aux salariés de choisir librement leur poste de travail (Mac ou PC) sans que cela n’ait d’impact sur leur aptitude à accéder aux applications de l’entreprise.

Notons enfin pour terminer que Citrix, lui-même a retenu une solution EMC basée sur les baies VNX pour son déploiement de XenDesktop 5, une solution qui est montrée à l’Executive Briefing Center de la firme à Santa Clara.

Les principaux avantages d’un déploiement VDI selon IDC

Selon l’analyste, les entreprises qui ont adopté la virtualisation des postes de travail constatent également des bénéfices importants en termes d’administration, de coûts et de fonctionnalités.

Ces bénéfices peuvent être classés en trois grandes catégories :

Bénéfices quantifiables :

Le fait de faire tourner les environnements utilisateurs dans des VM sur les serveurs permet d’alléger les postes clients, ce qui ouvre la voie à une réduction drastique du coût des postes clients, soit en étendant la durée de vie des postes existants, soit en les remplaçant par des clients légers. L’administration des postes clients virtualisés est aussi largement simplifiée ce qui permet d’optimiser le travail de l’IT.

De plus, la virtualisation des postes de travail peut améliorer la productivité des utilisateurs en augmentant la fiabilité des postes de travail et en réduisant le besoin d’appels au support. IDC indique toutefois que ces gains peuvent être en partie effacés par les coûts nécessaires à la mise en place de l’infrastructure de virtualisation de postes de travail.

Bénéfices fonctionnels :

La virtualisation des postes de travail déplace les données du poste client vers le datacenter et réduit donc au passage les risques de sécurité qui pèsent sur l’organisation. La sauvegarde des données est aussi facilitée par le fait que les données résident dans le datacenter, ce qui permet aussi d’assurer le respect des règles de conformité. La reprise après désastre est aussi simplifiée car l’IT peut très facilement restaurer les postes de travail à leur dernier état connu.

Bénéfices organisationnels :

Les tensions traditionnelles entre l’IT et les autres pans de l’entreprise peuvent être réduites grâce à la virtualisation. Comme les environnements virtualisés sont plus simples à gérer et plus sûrs que les postes traditionnels, l’IT peut laisser plus de liberté aux utilisateurs. Les bureaux virtualisés peuvent aussi contribuer à une meilleure expérience utilisateur, notamment par rapport à celle que procurent des PC vieillissant. Enfin, la virtualisation permet un accès aux environnements de travail depuis tout lieu et à toute heure et ce depuis tout type de périphérique, ce qui peut contribuer à améliorer la satisfaction des utilisateurs.

Eric Baize, EMC : «la sécurité devient un élément de l’ingénierie du logiciel» par Valery Marchive, LeMagIT

Responsable de la sécurité des produits chez EMC, Eric Baize, a accepté de partager avec nous son regard sur l’intégration de la sécurité dans les processus de développement logiciel, lors d’une rencontre à la RSA conference, qui se déroulait la semaine dernière à San Francisco. Prudent, Eric Baize souligne des avancées.

LeMagIT : L’intégration de la sécurité aux processus de développement des logiciels n’est-elle pas encore qu’un voeu pieux ?

Eric Baize : Plus maintenant. La situation a commencé à évoluer de manière significative. Un changement vraiment important a commencé à s’opérer il y a vraiment trois ou quatre ans. Les entreprises qui ont vraiment les moyens – comme les banques, ou les éditeurs tels que nous – ont commencé à réaliser que tout le monde n’abordait pas le problème avec le même sens des priorités : s’il est évident que la sécurité du logiciel est un problème complexe et couteux, il est apparu tout aussi évident qu’il ne serait pas résolu par une seule personne. Il est clairement de l’intérêt de l’industrie du logiciel toute entière de participer à le résoudre. Parce que, au final, le problème se résume à celui du maillon faible, celui qui offre une prise aux attaquants.

Depuis trois, quatre ans, donc, l’industrie du logiciel a lancé des initiatives de mise en commun des connaissances : les entreprises qui font du logiciel échangent ainsi sur leurs pratiques.

EMC a rejoint deux initiatives importantes. Safecode.org, tout d’abord, qui est principalement orientée vers les développeurs de logiciels, soit intégrés à leurs produits, soit parce qu’ils éditent et vendent des logiciels. Nous y sommes là associés à SAP, Nokia, Microsoft, Symantec, Adobe, Juniper, Siemens, etc. La seconde est BSIMM.com, une initiative organisée par Gary McGraw, de Cigital, qui a examiné et évalué 45 pratiques de sécurité dans 45 grandes organisations.

LeMagIT : Vous avez commencé votre propos en évoquant «ceux en ont vraiment les moyens»… Qu’en est-il des «petits» développeurs ou éditeurs ?

Eric Baize : La situation n’est pas la même. Mais l’idée est de mettre ces pratiques sur la table pour permettre aux petits, jusqu’à ceux qui ne sont que deux dans garages, d’y avoir accès. Nous travaillons également beaucoup avec les universités pour que l’intégration de la sécurité dans le processus de développement relève du standard en matière d’ingénierie informatique.

Mais ce que l’on observe aujourd’hui, c’est que la sécurité prend le même chemin que la qualité et devient justement un élément à part entière de l’ingénierie du logiciel.

Mais attention : la sécurité du logiciel, ce n’est pas faire des tests de pénétration (pentesting) ! Souvent, on me pose cette question et ça m’exaspère. On n’a recours au pentesting dans deux cas : lorsque l’on est confronté à une équipe qui pense que, la sécurité du logiciel, ce n’est pas son problème, pour lui montrer qu’elle a tort; ou lorsque l’on touche à des produits très sensibles alors même que l’on a déjà utilisé tout ce qu’il fallait pour s’assurer du niveau de sécurité du développement.

De mon point de vue, en dehors de ces deux cas, le pentesting, c’est du temps perdu pour un vendeur de solutions intégrant du logiciel.

LeMagIT : Certaines méthodes de développement – je pense notamment aux méthodes agiles par rapport aux méthodes traditionnelles – se prêtent-elles plus à l’intégration de la sécurité que d’autres ?

Eric Baize : Clairement, non. Lorsque vous concevez un produit, vous détaillez un diagramme d’architecture; c’est un standard quelque soit la méthode de développement retenue après. Mais pour bien montrer que la sécurité n’est pas incompatible avec les méthodes agiles, nous sommes en train, sur safecode.org, de finaliser un document de référence sur la sécurité intégrée au développement agile. Nous réalisons ce document en partenariat avec Microsoft et Symantec.

Étiquettes : , , ,

Protéger les données pour protéger les personnes – DLP

Le futur règlement européen sur la protection des personnes concernées par les traitements de données personnelles se préoccupe beaucoup plus de sécurité des données que la directive de 1995 aujourd’hui applicable.

Il rendra l’utilisation de solutions de Data Loss Protection indispensable dans les entreprises.

En 1995, Google et les réseaux sociaux n’existaient pas, le grand public découvrait à peine l’internet, l’informatique en nuage était inconcevable. C’est pourtant de cette époque que date la directive 95/46/CE, principal texte régissant la protection des données personnelles en Europe.

La Commission européenne vient donc de dévoiler le projet d’un nouveau règlement qui élargira les droits des « personnes concernées par le traitement des données ». Il les rendra aussi identiques dans toute l’Union Européenne puisque, contrairement à la démarche habituelle où toute directive doit être transposée dans les législations nationales, désormais celui-ci sera directement applicable. Les deux documents ont pratiquement le même titre. Comme la directive de 1995, le futur règlement porte sur « la protection des personnes physiques à l’égard du traitement des données à caractère personnel et à la libre circulation de ces données ».

Mais, à la suite de ce titre, le projet de règlement ajoute entre parenthèses : « règlement général sur la protection des données ». L’expression « protection des données » figurait cinq fois dans la directive et son exposé des motifs. Avec le règlement, on dénombre… 340 occurrences ! Si la directive insistait sur l’utilisation des données, elle s’intéressait peu à leur sécurisation. Le nouveau règlement, au contraire, y attache une importance extrême. Ainsi, quand la directive se contentait d’envisager la désignation d’un « détaché à la protection des données à caractère personnel », le projet de règlement impose aux administrations et aux entreprises de plus de 250 personnes la nomination d’un « délégué à la protection des données » ; il consacre une section entière à sa désignation, à sa fonction et à ses missions. Une section entière est aussi réservée à la « sécurité des données », expression qui ne figure pas une seule fois dans la directive de 1995. Le devoir de mémoire, corollaire du droit à l’oubli Aux dispositions expressément prévues par le nouveau texte s’ajoutent des contraintes implicites. Le futur règlement introduit, par exemple, un « droit à l’oubli numérique et à l’effacement », déjà prévu par la loi « Informatique et libertés » française mais non par la directive de 1995 (article 17 du projet) : chacun pourra réclamer l’effacement de données le concernant. Le « droit à l’oubli » n’est pas comme chez les historiens l’inverse du « devoir de mémoire ».

Dans le monde des données, il en est au contraire le corollaire : pour effacer des données, encore faut-il savoir avec certitude où elles se trouvent. Et cela, que les données soient au repos, en transit ou en cours d’utilisation.

D’autres dispositions du futur texte, comme le droit à la portabilité des données, c’est-à-dire le droit pour la personne concernée de transmettre des données d’un système de traitement à un autre (en clair, par exemple, la possibilité de transférer son profil d’un réseau social à un autre), mettent de nouvelles obligations à la charge des entreprises et des administrations.

Ces questions ne doivent pas être prises à la légère : une entreprise qui, même par simple négligence, ne respecterait pas le droit à l’oubli numérique serait passible d’une amende de 1% de son chiffre d’affaires annuel mondial.

L’amende s’élève même à 2% du chiffre d’affaires mondial pour celle qui omettrait de désigner un délégué à la protection des données ou de lui donner les moyens nécessaires à sa fonction. Pour respecter les dispositions du règlement et se prémunir contre de telles sanctions, les solutions de protection contre les pertes de données, ou DLP (pour Data Loss Protection) deviendront en pratique indispensables.

Ces solutions ont cinq missions principales : repérer les informations présentes dans l’écosystème informatique, classer les informations en appliquant des règles déterminées, gérer la politique d’utilisation et de circulation des données, veiller à l’application effective des contrôles de sécurité, signaler les infractions à la politique de sécurité. Elles couvrent donc l’essentiel des obligations prévues par le futur règlement et constitueront un outil de travail indispensable pour les responsables des traitements et les délégués à la protection des données.

Article rédigé par Yamina PERROT, Chef de produits, RSA

Étiquettes : ,

Etude sur la reprise après incident ou sinistre : les entreprises françaises n’obtiennent pas la moyenne

Une étude menée par EMC avec le cabinet Vanson Bourne auprès de 1 750 entreprises européennes de toutes tailles – dont 250 françaises – révèle que trois quarts des entreprises interrogées n’ont pas totalement confiance dans leur aptitude à se relever d’un incident ou d’un sinistre touchant leur système informatique.

En conclusion, l’étude met en lumière l’inadéquation des solutions de sauvegarde et de restauration actuellement en place dans bon nombre d’entreprises aux besoins de protection de données modernes.

L’enquête européenne sur la reprise après sinistre, intitulée « European Disaster Recovery Survey 2011 : Data Today Gone Tomorrow, How Well Companies Are Poised For IT Recovery », révèle que 74% des entreprises n’ont pas totalement confiance dans leur aptitude à redémarrer après un sinistre informatique. Au cours de l’année écoulée, 54% des entreprises interrogées ont perdu des données ou subi une interruption de fonctionnement.

Dans 61% des cas, cette interruption a été causée par une panne matérielle. Les catastrophes naturelles et le sabotage sont aussi cités parmi les autres causes d’interruption de fonctionnement.

Les entreprises françaises à la traîne

Pourquoi les entreprises migrent de la bande vers la sauvegarde sur disque Le fait qu’un incident puisse affecter leur infrastructure est une quasi certitude pour les entreprises. Au-delà des procédures, des infrastructure et de l’expertise des hommes, un des défis est de bâtir la solution qui permettra de reprendre rapidement la production après un sinistre et ce en réduisant au minimum le risque de pertes de données.

Et le moins que l’on puisse dire est qu’en la matière, les entreprises françaises ont encore du chemin à faire. Sur l’ensemble des douze derniers mois et alors qu’elles investissent autant que la moyenne européenne dans leur environnement de reprise d’activité, les sociétés hexagonales détiennent le triste record européen des pertes de données. Près d’un tiers d’entre elles avoue ainsi avoir perdu des données contre environ un quart à l’échelle européenne. Curieusement, les entreprises françaises qui ont perdu des données ne reconnaissent pas vraiment les conséquences d’une telle perte. Seules 25% estiment que leur perte de données a eu une conséquence commerciale, contre 37% en moyenne en Europe. La perte de données sert en revanche souvent de déclencheur à une refonte des systèmes de sauvegarde et de restauration.

Mais là encore la France fait figure de mauvais élève. Ainsi, dans l’hexagone seules 34% des entreprises qui ont perdu des données ont revu leur système de sauvegarde et leurs procédures, tandis que 23% ont accru leurs investissements dans leur infrastructure de sauvegarde. Ces chiffres sont respectivement de 57% et 34% au Royaume-Uni, de 48% et 20% en Allemagne et de 48% et 57% en Italie. Autant dire qu’il est urgent d’agir. Les principales conséquences des défaillances informatiques en Europe Car les interruptions de services et les pertes de données ont un prix : à l’échelle européenne, les entreprises s’accordent sur le fait que leur principale conséquence est une perte de productivité, mais dans 28% des cas, les entreprises indiquent aussi avoir subi une perte de chiffre d’affaires.

Transition de la bande vers la sauvegarde sur disque

À l’échelle européenne, quatre entreprises sur dix utilisent toujours la bande comme système primaire de sauvegarde et de restauration, mais 80% de ces entreprises ont aujourd’hui des plans pour migrer à terme vers des systèmes de sauvegarde sur disque. Cet intérêt pour la sauvegarde sur disque s’explique par le besoin d’améliorer les performances et la fiabilité des systèmes de sauvegarde en place.

Ainsi, 39% des entreprises qui travaillent à la refonte de leur système de sauvegarde le font pour améliorer les performances en restauration tandis que 33% privilégient l’amélioration de la vitesse de sauvegarde.

26% attendent de la sauvegarde sur disque une plus grande fiabilité. Les bénéfices de la migration vers un système de sauvegarde sur disque

  La sauvegarde sur disque et la réduplication au secours du plan de reprise des entreprises

En plus d’une évolution des systèmes de restauration vers une solution de sauvegarde sur disque, l’intégration  de la déduplication apporte des atouts déterminants dans le contexte de la reprise sur incident ou sinistre :

–  Des temps de restauration qui passent en moyenne de 17 à 2 heures pour la performance

– Des économies substantielles par rapport aux bandes : plus de renouvellement et de test des médias, plus de transport sur un site tiers et des gains importants sur la gestion au quotidien et sur la surface au sol dans le datacenter.

Télécharger l’étude complète réalisée par EMC

Rendez-vous Mercredi 9 novembre au Carrousel du Louvres – Cloud et Big Data

Mercredi 9 novembre 2011
Horaire:
08:15 – 18:00
Lieu:
Le Carrousel du Louvre,
99, rue de Rivoli
75001 Paris


Bienvenue

EMC Forum est une journée unique qui vous donnera l’opportunité de mieux appréhender comment le Cloud computing ou IT-as-a-Service va transformer le système d’information traditionnel des entreprises et de définir les orientations les plus efficaces pour accélérer la transition vers votre Cloud.

La modernisation du système d’informations doit être au cœur de la stratégie de l’entreprise car l’ IT-as-a-Service est un des meilleurs atouts de compétitivité. En effet, cette nouvelle manière de gérer et de consommer les ressources informatiques vous permet, au-delà des économies directes qu’elle génère, d’accéder aux informations, de les analyser et de prendre des décisions plus rapidement. Plus qu’une lointaine notion, cette réactivité est un véritable accélérateur business, un atout stratégique.

Evénement majeur du secteur informatique organisé autour de visions stratégiques, témoignages clients et sessions thématiques, EMC Forum 2011 sera pour vous l’occasion de:

  • Prendre connaissance des derniers enjeux et développements en matière d’infrastructures d’information, notamment le Cloud computing et les Big Data.
  • Comprendre quelles transformations des rôles et des processus sont nécessaires pour conduire un changement durable dans votre entreprise.
  • Découvrir les solutions leader du marché qui associent matériel, logiciel et services, afin de répondre aux besoins de l’entreprise quelle que soit sa taille.
  • Echanger avec les experts de l’écosystème EMC ainsi qu’avec vos pairs.

Réservez dès aujourd’hui votre journée pour venir à la rencontre d’EMC et de nos partenaires, leaders du secteur.

Ne manquez pas cette opportunité d’enrichir votre réflexion et de découvrir comment vous allez transformer votre organisation IT et faire évoluer votre entreprise.

Partenaires
Global Sponsors
Platinum Sponsors
Suivre

Big Data : comprendre ce qu’il se passe et anticiper !


EMC a sorti il y a quelques jours la cinquième édition de l’étude Digital Universe  “Extracting Value from Chaos“. 

Une fois par an, nous proposons d’évaluer la taille de l’univers numérique, et d’observer le rythme de croissance du volume d’informations sur la planète. En 2010, le volume de données de l’univers numérique marquait un événement en introduisant un changement d’unité: le zettaoctet. Celui-ci passait de 0,8 à 1,2 zettaoctet (1,2 milliard de giga-octets).        

En quelques chiffres, un volume de 1,8 zettaoctet de données équivaudrait au volume d’informations :

  • engendré si chaque habitant de la planète subissait chaque jour plus de 215 millions d’IRM à haute résolution ;
  • contenu dans plus de 200 milliards de film HD (d’une durée moyenne de deux heures). Il faudrait à une personne 47 millions d’années pour en visionner l’intégralité, si tant est qu’elle s’y consacre 24 h/24, 7j/7 ;
  • nécessaire pour remplir 57,5 milliards d’iPad d’une capacité de 32 Go                                                                                                                                                     

 

En 2011 cette nouvelle étude nous apprend que la planète sera un peu plus lourde 😉 en passant à 1,8 zettaoctet en 2011, et à 35 en 2020. 

Je pense même que les volumes devraient dépasser ces prévisions au vu des rythmes de croissance observés actuellement.

Si 75 % des données sont créées par des particuliers, 85 % de ce volume est géré par des entreprises, comme la votre, la mienne ou à l’opposé du spectre comme Facebook ou Google. 

 

Bad news, une pression supplémentaire pour les DSI

La technologie nécessite de l’humain mais à peine plus de moyens seront disponibles pour endiguer l’explosion

 

En 2020, le volume de données géré sera multiplié par 50 avec 75 fois plus de fichiers, et entrainera une multiplication par 10 des serveurs physiques.


Durant cette période, IDC estime que le personnel informatique pour gérer ces infrastructures ne sera lui multiplié que par 1,5 !     

 

 

Autre résultat qui permet de contenir partiellement l’explosion, le coût relatif des équipements informatiques en 2011 pour gérer 1 Go de données coûte 1/6 du prix comparé aux coûts en 2005. Pendant la même période, l’investissement des entreprises sur cet univers numérique n’a augmenté que de 50 % (pour atteindre 4 milliards de dollars : matériel, logiciel, services et personnel). Heureusement, l’évolution des technologies permet de réduire les volumes et d’automatiser une partie de plus en plus importante des tâches. 

Et le Cloud Computing, effet salvateur ?

La situation devient chaque année plus critique! Une part intéressante, mais limitée de l’IT prendra la direction du Cloud. Mais ne protègera que partiellement de l’orage : en 2015 le Cloud abritera  au maximum 1,4 zettaoctets sur un volume total de 7,9 zettaoctets. 

Si en 2011, les dépenses sur le Cloud ne représenteront que 2 % des dépenses informatiques dans le monde, entre 2011 et 2020, 20 % des informations devraient transiter à travers le cloud, tandis que 10 % devraient y résider.» Si cette évolution peut atténuer la problématique du stockage, elle semble bien légère face aux 35 zettaoctets. 

Et si les technologies de stockage restaient en l’état il ne serait alors plus possible de stocker les données dans 2 ou 3 ans… Néanmoins EMC veille 😉 avec entre autre l’évolution rapide de nos technologies grâce au thin provisioning, de la déduplication, de la compression, de la virtualisation, etc.

EMC proposent déjà ces technologies de plus en plus performantes et continue d’investir 20% de son C.A pour faire face aux défis à venir. Mais pour le DSI, le Cloud reste un bol d’oxygène.


La sécurité: encore une option ?

Malgré la multiplication des règles de conformité, la sécurité de l’information progresse lentement. Ce que démontre l’étude en évaluant que seul un tiers des 1,8 zettaoctet de données générées en 2011 seraient “plus ou moins” sécurisés, soit environ 0,6 zettaoctets. 
C’est un chiffre alarmant car, le besoin de sécurisation des informations devrait concerner environ 50 % du volume global. Et je ne parle pas seulement des problématiques de sécurisation d’accès, mais aussi et surtout de la protection de ces données au sein de l’entreprise.


Big Data : quand un « Tsunami » de donnée se transforme en mine d’informations.


Pour IDC, le phénomène Big Data est une réalité qui devient plus visible et se répand grâce à la baisse des coûts du stockage, des technologies de capture de l’information, et aux solutions modernes d’analyse des données.

« Big Data ne concerne ni la création de contenu, ni sa consommation. Il s’agit d’analyser toutes les informations liées au contenu » précise IDC.

 

« Big data technologies describe a new generation of technologies and architectures, 

designed to economically extract value from very large volumes of a wide variety of data, 

by enabling high-velocity capture, discovery, and/or analysis » 

 

Pas nouveau ? Pas si certain car nous évoluons depuis une trentaine d’années dans un monde ou les données sont générées par l’entreprise elle-même. Le changement radical aujourd’hui est que la performance de l’entreprise vient de plus en plus de sa capacité à agréger des données extérieures. Regardez ce qu’il se passe pour l’intelligence économique… Sans tenir compte de cet afflux de données nos clients observent déjà une augmentation de +50 % à +60 % des données dans leur système d’exploitation

Ces données extérieures sont pour la plupart non-structurées. Et bien 90% de l’explosion à venir vient des ces données d’un nouveau type.

Quel intérêt ? Prenons un exemple, jusqu’à présent, un responsable marketing dans le B2C exécutait des analyses et organisait son CRM autour des données clients disponibles au sein du système d’information. Aujourd’hui, il doit en plus prendre en compte les informations présentes au travers de sources externes : dans les réseaux sociaux pour effectuer des agrégations/corrélations, des analyses comportementales, de la géolocalisation, des études macro ou micro économiques, des résultats de recherches démographiques, etc. 

Le Big Data n’est pas un nouveau « buzz » marketing mais une nouvelle étape dans la transformation de la donnée en information métier et de sa valorisation. A un niveau plus stratégique on peut se dire que le Big Data sera une véritable prime à la performance de l’entreprise.

Le triptyque Big Data d’EMC : Stocker, Interpréter et Valoriser.

Il devient donc de plus en plus nécessaire d’avoir recours à des solutions adaptées à ces nouveaux enjeux. EMC se positionne fermement sur Big Data après notre acquisition de Greenplum pour proposer un logiciel de base de données, scalable et massivement parallèle, et des appliances de datawarehouse haut de gamme, complétées par des technologies d’optimisation du stockage « scale-out » comme Isilon ou les gammes VNX et VMAX dans une approche traditionnelle.

Pour finir parlons de valorisation avec des outils de gestion de contenu comme Documentum permettant de mettre l’information à la disposition de ceux qui ont en ont besoins pour prendre leurs décisions au quotidien.

Téléchargez l’étude EMC-IDC Digital Universe 2011