Accueil > BI, Big Data, Cloud Computing, DSI, Générale, Sécurité, Stockage, Tendances > Big Data : comprendre ce qu’il se passe et anticiper !

Big Data : comprendre ce qu’il se passe et anticiper !



EMC a sorti il y a quelques jours la cinquième édition de l’étude Digital Universe  “Extracting Value from Chaos“. 

Une fois par an, nous proposons d’évaluer la taille de l’univers numérique, et d’observer le rythme de croissance du volume d’informations sur la planète. En 2010, le volume de données de l’univers numérique marquait un événement en introduisant un changement d’unité: le zettaoctet. Celui-ci passait de 0,8 à 1,2 zettaoctet (1,2 milliard de giga-octets).        

En quelques chiffres, un volume de 1,8 zettaoctet de données équivaudrait au volume d’informations :

  • engendré si chaque habitant de la planète subissait chaque jour plus de 215 millions d’IRM à haute résolution ;
  • contenu dans plus de 200 milliards de film HD (d’une durée moyenne de deux heures). Il faudrait à une personne 47 millions d’années pour en visionner l’intégralité, si tant est qu’elle s’y consacre 24 h/24, 7j/7 ;
  • nécessaire pour remplir 57,5 milliards d’iPad d’une capacité de 32 Go                                                                                                                                                     

 

En 2011 cette nouvelle étude nous apprend que la planète sera un peu plus lourde 😉 en passant à 1,8 zettaoctet en 2011, et à 35 en 2020. 

Je pense même que les volumes devraient dépasser ces prévisions au vu des rythmes de croissance observés actuellement.

Si 75 % des données sont créées par des particuliers, 85 % de ce volume est géré par des entreprises, comme la votre, la mienne ou à l’opposé du spectre comme Facebook ou Google. 

 

Bad news, une pression supplémentaire pour les DSI

La technologie nécessite de l’humain mais à peine plus de moyens seront disponibles pour endiguer l’explosion

 

En 2020, le volume de données géré sera multiplié par 50 avec 75 fois plus de fichiers, et entrainera une multiplication par 10 des serveurs physiques.


Durant cette période, IDC estime que le personnel informatique pour gérer ces infrastructures ne sera lui multiplié que par 1,5 !     

 

 

Autre résultat qui permet de contenir partiellement l’explosion, le coût relatif des équipements informatiques en 2011 pour gérer 1 Go de données coûte 1/6 du prix comparé aux coûts en 2005. Pendant la même période, l’investissement des entreprises sur cet univers numérique n’a augmenté que de 50 % (pour atteindre 4 milliards de dollars : matériel, logiciel, services et personnel). Heureusement, l’évolution des technologies permet de réduire les volumes et d’automatiser une partie de plus en plus importante des tâches. 

Et le Cloud Computing, effet salvateur ?

La situation devient chaque année plus critique! Une part intéressante, mais limitée de l’IT prendra la direction du Cloud. Mais ne protègera que partiellement de l’orage : en 2015 le Cloud abritera  au maximum 1,4 zettaoctets sur un volume total de 7,9 zettaoctets. 

Si en 2011, les dépenses sur le Cloud ne représenteront que 2 % des dépenses informatiques dans le monde, entre 2011 et 2020, 20 % des informations devraient transiter à travers le cloud, tandis que 10 % devraient y résider.» Si cette évolution peut atténuer la problématique du stockage, elle semble bien légère face aux 35 zettaoctets. 

Et si les technologies de stockage restaient en l’état il ne serait alors plus possible de stocker les données dans 2 ou 3 ans… Néanmoins EMC veille 😉 avec entre autre l’évolution rapide de nos technologies grâce au thin provisioning, de la déduplication, de la compression, de la virtualisation, etc.

EMC proposent déjà ces technologies de plus en plus performantes et continue d’investir 20% de son C.A pour faire face aux défis à venir. Mais pour le DSI, le Cloud reste un bol d’oxygène.


La sécurité: encore une option ?

Malgré la multiplication des règles de conformité, la sécurité de l’information progresse lentement. Ce que démontre l’étude en évaluant que seul un tiers des 1,8 zettaoctet de données générées en 2011 seraient “plus ou moins” sécurisés, soit environ 0,6 zettaoctets. 
C’est un chiffre alarmant car, le besoin de sécurisation des informations devrait concerner environ 50 % du volume global. Et je ne parle pas seulement des problématiques de sécurisation d’accès, mais aussi et surtout de la protection de ces données au sein de l’entreprise.


Big Data : quand un « Tsunami » de donnée se transforme en mine d’informations.


Pour IDC, le phénomène Big Data est une réalité qui devient plus visible et se répand grâce à la baisse des coûts du stockage, des technologies de capture de l’information, et aux solutions modernes d’analyse des données.

« Big Data ne concerne ni la création de contenu, ni sa consommation. Il s’agit d’analyser toutes les informations liées au contenu » précise IDC.

 

« Big data technologies describe a new generation of technologies and architectures, 

designed to economically extract value from very large volumes of a wide variety of data, 

by enabling high-velocity capture, discovery, and/or analysis » 

 

Pas nouveau ? Pas si certain car nous évoluons depuis une trentaine d’années dans un monde ou les données sont générées par l’entreprise elle-même. Le changement radical aujourd’hui est que la performance de l’entreprise vient de plus en plus de sa capacité à agréger des données extérieures. Regardez ce qu’il se passe pour l’intelligence économique… Sans tenir compte de cet afflux de données nos clients observent déjà une augmentation de +50 % à +60 % des données dans leur système d’exploitation

Ces données extérieures sont pour la plupart non-structurées. Et bien 90% de l’explosion à venir vient des ces données d’un nouveau type.

Quel intérêt ? Prenons un exemple, jusqu’à présent, un responsable marketing dans le B2C exécutait des analyses et organisait son CRM autour des données clients disponibles au sein du système d’information. Aujourd’hui, il doit en plus prendre en compte les informations présentes au travers de sources externes : dans les réseaux sociaux pour effectuer des agrégations/corrélations, des analyses comportementales, de la géolocalisation, des études macro ou micro économiques, des résultats de recherches démographiques, etc. 

Le Big Data n’est pas un nouveau « buzz » marketing mais une nouvelle étape dans la transformation de la donnée en information métier et de sa valorisation. A un niveau plus stratégique on peut se dire que le Big Data sera une véritable prime à la performance de l’entreprise.

Le triptyque Big Data d’EMC : Stocker, Interpréter et Valoriser.

Il devient donc de plus en plus nécessaire d’avoir recours à des solutions adaptées à ces nouveaux enjeux. EMC se positionne fermement sur Big Data après notre acquisition de Greenplum pour proposer un logiciel de base de données, scalable et massivement parallèle, et des appliances de datawarehouse haut de gamme, complétées par des technologies d’optimisation du stockage « scale-out » comme Isilon ou les gammes VNX et VMAX dans une approche traditionnelle.

Pour finir parlons de valorisation avec des outils de gestion de contenu comme Documentum permettant de mettre l’information à la disposition de ceux qui ont en ont besoins pour prendre leurs décisions au quotidien.

Téléchargez l’étude EMC-IDC Digital Universe 2011 


    

  1. Aucun commentaire pour l’instant.
  1. No trackbacks yet.

Laisser un commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l'aide de votre compte WordPress.com. Déconnexion / Changer )

Image Twitter

Vous commentez à l'aide de votre compte Twitter. Déconnexion / Changer )

Photo Facebook

Vous commentez à l'aide de votre compte Facebook. Déconnexion / Changer )

Photo Google+

Vous commentez à l'aide de votre compte Google+. Déconnexion / Changer )

Connexion à %s

%d blogueurs aiment cette page :