Archive

Archive for the ‘BI’ Category

Etude EMC Big Data Index : un intérêt réel des entreprises en dépit d’un retard à l’allumage de la DSI

Au delà des résultats du Big Data Index, l’étude que j’ai lancé récemment avec IDC, a le mérite de mettre en avant la maturité et l’attitude face au Big Data, à la fois des responsables des études et métiers et des responsables informatiques et d’infrastructures.

Une méthodologie adaptée à la réalité de ces projets informatiques qui impliquent fortement les métiers. Le Big Data, c’est un renversement de modèle qui va au delà de transformation de l’IT. Et cela nécessitera sans doute la mise en place d’organisation métier et technologique spécifique complètement dédiée à gestion de l’information.

Des projets qui commencent juste à émerger dans les entreprises françaises

Le Big Data Index a pour objectif de mieux analyser la perception qu’ont les entreprises françaisesdu Big Data et la réalité des initiatives prises dans ce domaine. Il repose sur deux enquêtes conduites en France en juin et juillet 2012 auprès de 160 entreprises de plus de 200 salariés.

Deux populations ont été interrogées : les études et les responsables informatiques et d’infrastructures. Sans surprise au regard de la jeunesse du concept, 70% des entreprises interrogées par IDC  déclarent ne pas avoir d’initiatives ou de réflexion dans le domaine du Big Data et une entreprise sur deux a le sentiment d’être très en retrait avec la moyenne de la profession dans ce domaine.

Les raisons invoquées se situent principalement dans le domaine des compétences et de l’organisation. Le manque d’expertise technologique en interne est ainsi perçu comme le principal frein et pour 64% des équipes IT, ayant répondu à cette étude, la collaboration des services informatiques et des entités métiers devront être renforcées.

Comme le confirme l’étude, le Big Data commence juste à émerger en France. Ainsi, 18 %  seulement des entreprises interrogées déclarent utiliser des solutions « Big Data » et 11% ont prévu ou envisagent d’investir.

Pour IDC, les initiatives de ces entreprises « volontaristes » restent limitées par leur nombre et par l’ampleur des projets. Seule une moitié déploie, ou a déployé, des technologies portant à la fois sur les dimensions «stockage» et «analytiques» du Big Data.

Tendance plus positive pour l’avenir : 31% des entreprises interrogées ont esquissé, avec des entités métier, des réflexions et des discussions de type « Big Data », voire des déploiements technologiques, sans pour autant revendiquer une démarche « Big Data », ni même faire le lien avec le concept.

Un intérêt plus large et plus dynamique qu’il n’y paraît

Si, selon les résultats de l’étude, plus de la moitié des projets Big Data concernent l’analyse financière (58%), donc le secteur bancaire, et la connaissance client (53%),  on sait que la réalité du Big Data sur le terrain est plus diversifiée que cela. EMC insiste notamment beaucoup sur le coté prédictif du Big Data et pas seulement dans les secteurs innovants du commerce électronique ou de la publicité en ligne. Dans le temps, les domaines concernés seront plus vastes que l’on ne peut l’imaginer aujourd’hui.

Pour le prouver, nous avons d’ailleurs lancé différentes initiatives visant à illustrer tous les champs d’application possibles au quotidien. Au delà des usages possibles, le Big Data est perçu comme un projet très innovant.

Selon 75% des responsables « Etudes » interrogés, « le Big Data pourrait contribuer à renforcer d’une manière ou d’une autre la capacité d’innovation de leur organisation ». Grâce aux technologies Big Data, 59% estiment qu’elles pourraient tirer parti de données jusqu’alors inaccessibles. 40% indiquent que le Big Data rend possible de nouveaux modèles économiques basés sur la réactivité et l’interactivité en temps réel.

En conclusion, les résultats de l’étude témoignent encore d’une différence de maturité et d’intérêt pour le Big Data entre les entités « métiers » et « informatiques » de l’entreprise, mais aussi entre les équipes « Etudes » et « Infrastructures » au sein des directions informatiques.

La grande majorité des responsables des départements Etudes, interrogés au sein des Directions des Services Informatiques françaises, observent une demande croissante de la part des entités métier (Marketing et Finance en particulier). Et ce, en matière d’analyses plus fines et plus fréquentes, portant à la fois sur les volumes de données croissants, mais également sur des contenus plus variés.

EMC promeut la notion de chaine de valeur #BigData !

  • Quelle valeur apporte le big data aux entreprises ?
  • Quels sont les défis qu’il faut surmonter (outils architectures, infrastructures, technologiques) ?
  • Le big data se limite-t-il au décisionnel ? Quelle pertinence existe-t-il entre le cloud et le big data ?

 

Un constat s’impose : le big data n’a de sens que dans l’usage et l’exploitation des analyses dans les processus métiers.

Le big data n’est pas une simple démonstration technologique. L’explosion de la volumétrie des données est sans précédente,35,2 zeta octets à l’horizon 2020 et la donnée non structurée représente désormais 90 % de nos données !

Pour manipuler, stocker, traiter, analyser, cette masse d’informations structurées et non structurées, il faut des outils adaptés. Une donnée non exploitée n’a aucune valeur pour l’entreprise.

“Big Data ne concerne ni la création de contenu, ni sa consommation. Il s’agit d’analyser toutes les informations liées au contenu” précise IDC.

Un exemple : un responsable marketing dans le B2C exécute des analyses et organise son CRM autour des données clients disponibles au sein du système d’information. Aujourd’hui, il doit prendre en compte les informations présentes au travers de sources externes : dans les réseaux sociaux pour effectuer des agrégations/corrélations, des analyses comportementales, de la géolocalisation, des études macro ou micro économiques, des résultats de recherches démographiques, etc.

Cette masse d’information est une pression supplémentaire pour les DSI. En 2020, le volume des données sera multiplié par 50 mais avec des équipes techniques limitées et des contraintes budgétaires toujours fortes.

La chaine de valeur proposée par big data : un enjeu crucial pour les entreprises!

Spécialiste si il en est de la gestion des volumes, EMC préconise la mise en place d’une chaine de valeur autour du big data.

C’est en effet à travers ce concept qu’il défend une nouvelle manière de penser la donnée, son utilisation dans le modèle économique de l’entreprise. Car le big data c’est d’abord la possibilité offerte aux organisations d’obtenir les données stratégiques pour prendre des décisions et agir rapidement. Par exemple, comment proposer en temps réel du ticketing ciblé à des clients de sites internet ? Comment afficher une campagne publicitaire répondant aux attentes, aux envies d’un internaute ? Il faut pouvoir agir et réagir immédiatement. Les actions marketing reposent sur les capacités à collecter et à traiter les informations pertinentes et à fournir des analyses immédiatement.

Pour EMC, la chaine de valeur du big data repose sur trois éléments :

– Collecter, stocker les données : partie infrastructure

– Analyser, corréler, agréger les données : partie analytique.  L’analyse hyper performante en temps réel quelque soit l’importance du volume de données.

– Exploiter, afficher l’analyse big data : comment exploiter les données et les analyses, comment monétiser le résultat, comment partager ces informations cruciales pour l’entreprise ? Comment les utilisateurs peuvent afficher et utiliser les résultats.

Cette démarche nécessite une infrastructure big data propre aux données, des outils d’analyses et les capacités à agir (moteur d’action). Le spécialiste du stockage couvre dès aujourd’hui l’ensemble de la dimension big data mais veut aller au-delà des fameux 3V défini par Gartner : volume, variété, vélocité.

Car le big data n’a de sens que s’il est exploité et utilisé. Il ne faut pas se focaliser sur la technologie mais aussi et surtout l’usage. C’est là que se trouve la valeur de la donnée. Cette problématique est adressée à travers l’Action Engine (moteur d’action). L’objectif du moteur d’action est de diffuser en temps réel la quintessence de l’information – ce qui en fait la richesse – aux métiers et aux utilisateurs (après traitements des données et des analyses).

EMC Documentum est la colonne vertébrale de cette chaine de valeur. Cette solution va apprécier la donnée pour permettre de prendre des décisions à travers des processus métiers (c’est là qu’intervient Big Data Action Engine).

Acteur global de l’exploitation de la donnée EMC pose les fondations technologiques du big data avec l’infrastructure et les outils d’analyse et de traitement :

Sur le stockage, il faut une infrastructure à forte montée en charge et automatisée, capable de supporter plusieurs petaoctets de données tout en ayant des performances linéaires.

La gamme Isilon s’adapte parfaitement aux contraintes de capacité, de performances et de montée en charge. Hadoop, le framework big data de référence est disponible sur la plate-forme. La gamme Atmos répond aux besoins en termes d’infrastructures distribuées fonctionnant en ilots de stockage (un tenant, plusieurs systèmes) ou présentant un pool unique de stockage (plusieurs tenants, un seul système).

Sur la partie analytique EMC abat ses cartes par le biais de la solution Greenplum. Disponible sous la forme d’un logiciel traditionnel ou d’une appliance (HW et SW), Greenplum propose la solution idéale pour le Bigdata analytique. Complément indispensable pour l’analyse des données non structurées, Greenplum intègre nativement une version supporté du framework Hadoop.

Le cloud computing démocratise l’usage du big data!

De quelle manière une entreprise, une startup, une TPE / Web, un site de ecommerce peut mettre en œuvre du big data sans investir dans les infrastructures ? La réponse est le cloud computing. Le stockage des données et leurs analyses consomment énormément de ressources et les pics d’activité sont difficilement absorbables pour une infrastructure classique. Les services cloud (IaaS ou PaaS) permettent alors de prendre le relai et de mobiliser les ressources nécessaires en quelques minutes.

Pour une petite entreprise ou une startup, le cloud est l’infrastructure flexible idéale. Il est facile de provisionner des instances, de souscrire à du stockage supplémentaire pour répondre aux besoins immédiats de l’activité de l’entreprise. Surtout, les traitements et analyses se déportent aussi sur le cloud computing. De plus en plus d’outils analytiques sont disponibles sous forme de services cloud. Hadoop est disponible chez de nombreux fournisseurs de IaaS et de PaaS. Et les services SaaS et services cloud s’intègre avec le big data pour afficher et exploiter les analyses.

Étiquettes : , ,

Big Data, un marché qui croit à 40% de 2010 à 2015 – Mais la France est en retard !!!

Encore une bonne nouvelle en provenance d’IDC datant d’hier.

Selon IDC le marché du Big Data devrait croitre à une allure de 40% par an entre 2010 et 2015. Cela représente une accélération d’un facteur 7 par rapport a la croissance attendue dans le marché des TIC pour la même période.

Qui plus est, le segment du stockage Big Data a lui seul devrait connaitre la progression la plus importante avec 61%. Excellente nouvelle pour EMC mais surtout pour les entreprises qui sont concernées. D’après IDC, et c’est une thèse que je partage à 100%, les grands gagnants seront les grands comptes mais les PME ne sont pas laissées pour compte…

En effet le Cloud vient de plus en plus au secours des plus petits acteurs du monde économique et leur servira de façon croissante des application « big Data ready ».

En synthèse IDC indique que le point noir n’est pas technologique, mais bien comme EMC le disait et comme je l’indiquais dans mon post du 18 octobre 2011, il est humain!

Le manque cruel d’experts (non pas d’experts BI ou de statisticiens)  mais de vrais DataScientists comme nous les désignons.

En particulier la France est à la « bourre » pardonnez moi l’expression. Pas un vrai cursus de formation à l’horizon dans les universités ou les grandes écoles. Devrons nous embaucher des Chinois pour faire le job ??? Chercher les experts Haoop, les vrais et vous verrez que la partie n’est pas gagnée. Et encore Hadoop n’est qu’un exemple dans la palette des besoins criants.

Mais regardez le profil du DataScientist que je mentionnais dans mon post et vous constaterez le « gap ».

En attendant, stockage Big Data (lire Isilon), appliance analytique (lire Greenplum), Hadoop (lire la version supportée par EMC) et base de données ad’hoc, IDC y voit clair. Le seul manque est très certainement l' »Action Engine » (lire Documentum) pour diffuser en temps-réel la richesse de l’information aux métiers et aux utilisateurs concernés après traitement, mais ça j’en parlerai un peu plus tard…

En tout cas j’adore car il s’agit des vrais forces d’EMC dans le Big Data! Qui dit mieux ?

________________________________________________

Strongest growth opportunity being storage at 61%, IDC reports.

International Data Corporation released a worldwide big data technology and services forecast showing the market is expected to grow from $3.2 billion in 2010 to $16.9 billion in 2015.This represents a CAGR of 40% or about 7 times that of the overall information and communications technology market. »The big data market is expanding rapidly as large IT companies and startups vie for customers and market share, » said Dan Vesset, program vice president, Business Analytics Solutions at IDC. « For technology buyers, opportunities exist to use big data technology to improve operational efficiency and to drive innovation. Use cases are already present across industries and geographic regions. » »There are also big data opportunities for both large IT vendors and start-ups, » Vesset continued. « Major IT vendors are offering both database solutions and configurations supporting big data by evolving their own products as well as by acquisition. At the same time, more than half a billion dollars in venture capital has been invested in new big data technology. »

Additional findings:

  • While the five-year CAGR for the worldwide market is expected to be nearly 40%, the growth of individual segments varies from 27.3% for servers and 34.2% for software to 61.4% for storage.
  • The growth in appliances, cloud, and outsourcing deals for big data technology will likely mean that over time end users will pay increasingly less attention to technology capabilities and will focus instead on the business value arguments. System performance, availability, security, and manageability will all matter greatly. However, how they are achieved will be less of a point for differentiation among vendors.
  • Today there is a shortage of trained big data technology experts, in addition to a shortage of analytics experts. This labor supply constraint will act as an inhibitor of adoption and use of big data technologies, and it will also encourage vendors to deliver big data technologies as cloud-based solutions.

« While software and services make up the bulk of the market opportunity through 2015, infrastructure technology for big data deployments is expected to grow slightly faster at 44% CAGR. Storage, in particular, shows the strongest growth opportunity, growing at 61.4% CAGR through 2015, » said Benjamin S. Woo, program VP, Storage Systems at IDC. « The significant growth rate in revenue is underscored by the large number of new open source projects that drive infrastructure investments. »

IDC methodology for sizing the big data technology and services market includes evaluation of current and expected deployments that follow one of the following three scenarios:

  • Deployments where the data collected is over 100TB. IDC is using data collected, not stored, to account for the use of in-memory technology where data may not be stored on a disk.
  • Deployments of ultra-high-speed messaging technology for real-time, streaming data capture and monitoring. This scenario represents big data in motion as opposed to big data at rest.
  • Deployments where the data sets may not be very large today, but are growing very rapidly at a rate of 60% or more annually.

Additionally, IDC requires that in each of these three scenarios, the technology is deployed on scale-out infrastructure and deployments that include either two or more data types or data sources or those that include high-speed data sources such as click-stream tracking or monitoring of machine-generated data.

The study, Worldwide Big Data Technology and Services 2012-2015 Forecast (IDC #233485, $4,500) examines the big data technology and services market for 2010–2015.

IDC defines big data technologies as a new generation of technologies and architectures designed to extract value economically from very large volumes of a wide variety of data by enabling high-velocity capture, discovery, and/or analysis. Further, the study segments the big data market into server, storage, networking, software, and services segments

Étiquettes : ,

Cela pourrait s’écrire comme un conte de Noël… « Il était une fois… »

« Donc, il était une fois un DSI qui ressentit soudain une terrible inquiétude. Distinguant un bout de ciel par la fenêtre de son bureau, il aperçut en effet, grossis par les vents mauvais soufflant sur le monde, de vilains nuages noirs qui s’amoncelaient au dessus de son entreprise. En regardant plus attentivement, il vit que chacun de ces nuages était composé d’une myriade de petites gouttes, présentant les deux mêmes caractéristiques mathématiques, zéro et un. C’était, il le comprit aussitôt, les milliards de données, nécessaires à la bonne marche de l’entreprise, mais qui échappaient inéluctablement à son contrôle, si difficile à stocker, à protéger et à sauvegarder, si vite croissait leur nombre. Leurs nuages assombrissaient déjà l’horizon. Il sut alors que s’ils venaient à crever sous la charge, lui-même serait englouti par la tempête numérique. Et l’entreprise avec lui. 

C’était quelques jours avant Noël. Il eut alors une inspiration. 
– Père Noël, supplia-t-il en levant les yeux vers le ciel tout noir, si tu existes, viens à mon secours !
– Et le Père Noël, qui existe en effet, l’entendit et donna aussitôt un coup de frein rageur pour stopper son traineau et lui répondit :
– Rassure-toi, je suis là pour t’aider, dit la voix venue du ciel. Mais d’abord, as-tu bien géré ton budget cette année ? Est-ce que tes utilisateurs sont contents de toi ? Et ta gouvernance ??
– … Bon d’accord je vais t’aider, je vais te donner les moyens de mieux stocker toutes tes données, de mettre de l’ordre dans le chaos de tes Petaoctets. Et puis après, je balaierai le firmament, où il ne restera plus qu’un seul nuage, mais celui-là clair et transparent, où tu pourras retrouver sans effort toutes les informations que tu y auras placées virtuellement. On l’appelle « Cloud » et il sera à toi. Et en plus tu verras les économies qu’il te permettra de réaliser. Tu pourras investir pour mieux servir ta Direction Générale et tes utilisateurs.
– Attends ce n’est pas tout, peux tu me dire ce que tu as prévu pour les « Big Data » ? Devinant le rictus de stupeur s’installer sur le visage de notre DSI, le Père Noël reprit, OK je vois que la aussi tu as besoin de mon aide…

Le Père Noël fit ce qu’il dit et plus encore.

…Ici s’arrête notre petite histoire. Mais, ce que nous présente ce conte de Noël correspond bien à ce que vivent souvent bien des confrères du héros de notre conte de Noël, en France comme ailleurs. La fiction ne trahit pas la réalité.

Cette réalité, c’est d’abord l’extrême difficulté que connaissent les DSI pour maîtriser le volume sans cesse croissant d’informations en circulation, de toutes sortes et de toutes natures ; pour déterminer celles qui les intéressent directement, puis les stocker, les sauvegarder, au besoin les restaurer. Les chiffres sont en eux-mêmes impressionnants : quelque 1800 milliards de giga-octets créés en 2011 à la surface de notre bonne vieille planète ! Les plus récentes études indiquent que les entreprises auront besoin d’ici à 2020 de 100 fois plus de serveurs pour exploiter ces données, et, simplement, rester compétitives. Car il leur faut comprendre et intégrer sans tarder, si elles ne veulent pas prendre du retard : l’année 2012 sera celle du « Cloud » et du « Big Data », c’est-à-dire d’une véritable explosion du nombre des données. Et ce malgré la crise, qui touche beaucoup d’entre elles, et les contraint souvent à réduire les dépenses en matière d’IT.

D’autant plus qu’il y a désormais le « Cloud » sous toutes ses formes. Public, Privé, Hybride, les informaticiens, comme les mathématiciens, sont aussi des poètes…Mais l’image du nuage traduit bien ce concept, rendre les ressources transparentes pour les utilisateurs, une IT plus agile, moins coûteuse. Un ou plusieurs « Cloud » permettant de procurer plus d’agilité et de réduire le budget de CAPEX et de fonctionnement au profit d’investissement pour servir l’innovation et la stratégie de l’entreprise.

Dès à présent, la plupart des entreprises ont entrepris la virtualisation de leur environnement informatique. Selon une enquête menée par IDC en France, une entreprise sur quatre a déjà virtualisé une partie de ses postes clients, et 17% prévoient de le faire d’ici à 18 mois. Plus de 70% des grandes sociétés sont en phase de virtualisation de leurs applications critiques. Une tendance qui place naturellement les entreprises sur la rampe de lancement du « Cloud ». Toutes ont compris qu’il était urgent et important d’investir dans le « Cloud », afin de concilier efficacité et économies.

Fort heureusement, la réalité, ce sont aussi des solutions. Celles-là même que notre Père Noël de tout à l’heure évoquait. De nouveaux outils de capture, de recherche, de découverte et d’analyse offrent aux entreprises la possibilité de mieux appréhender leurs données. De ne pas succomber sous la déferlante des serveurs, d’être submergées par l’avalanche de fichiers et de conteneurs destinés à stocker les informations, au point de ne plus être capables de retrouver celles dont elles ont un besoin immédiat. Ces outils peuvent créer des données sur les données, afin de rendre leur utilisation plus simple et plus rapide, en temps réel.

Le «phénomène « Big Data » ce n’est pas uniquement plus de données, c’est surtout :
· des moyens de stockage plus performants et nettement plus évolutifs,
· des solutions d’analyse de données de nouvelle génération pour analyser des volumes toujours plus importants, permettant d’analyser des données structurées et non structurées et favoriser une prise de décision encore plus fine.
· De favoriser l’irrigation des décideurs et des métiers avec de l’information construite grâce à l’analyse des « Big Data »

Le phénomène des « Big Data » impose «des transformations dans la façon dont les entreprises gèrent et tirent profit de l’information ». Ces transformations conduisent naturellement à recourir de façon croissante à de nouveaux processus et de nouvelles méthodes, des solutions meilleures et plus économiques.

EMC, leader mondial pour l’approche « IT as a service », accompagne les départements informatiques des entreprises dans leur transition vers le « Cloud » et le « Big Data ». Elle leur propose des solutions flexibles, fiables et économes pour le stockage, la protection et l’analyse en temps-réel et le partage de leur actif le plus précieux pour 2012 : l’information.

– « Au fait, avait aussi demandé le DSI de notre conte au Père Noël informatique, quel est ton vrai nom ? »
– «Tu peux m’appeler EMC ».
Et son traineau disparut aussitôt dans un épais nuage de poussière stellaire.

Monsieur, Monsieur… Notre DSI sentit qu’on le tirait par la manche. Il tourna son regard vers l’intrus et pensait apercevoir un lutin. Monsieur, je suis désolé de vous réveiller mais il est plus de 23h00 et nous allons fermer les locaux, chuchotait l’agent de sécurité.

Il réalisa brusquement que cet échange avec le Père Noël n’avait été qu’un rêve… Un rêve mais tellement riche d’enseignements qu’il s’empressa de mettre ses idées en ordre tout en ramassant ses affaires sur son bureau ….

Rendez-vous Mercredi 9 novembre au Carrousel du Louvres – Cloud et Big Data

Mercredi 9 novembre 2011
Horaire:
08:15 – 18:00
Lieu:
Le Carrousel du Louvre,
99, rue de Rivoli
75001 Paris


Bienvenue

EMC Forum est une journée unique qui vous donnera l’opportunité de mieux appréhender comment le Cloud computing ou IT-as-a-Service va transformer le système d’information traditionnel des entreprises et de définir les orientations les plus efficaces pour accélérer la transition vers votre Cloud.

La modernisation du système d’informations doit être au cœur de la stratégie de l’entreprise car l’ IT-as-a-Service est un des meilleurs atouts de compétitivité. En effet, cette nouvelle manière de gérer et de consommer les ressources informatiques vous permet, au-delà des économies directes qu’elle génère, d’accéder aux informations, de les analyser et de prendre des décisions plus rapidement. Plus qu’une lointaine notion, cette réactivité est un véritable accélérateur business, un atout stratégique.

Evénement majeur du secteur informatique organisé autour de visions stratégiques, témoignages clients et sessions thématiques, EMC Forum 2011 sera pour vous l’occasion de:

  • Prendre connaissance des derniers enjeux et développements en matière d’infrastructures d’information, notamment le Cloud computing et les Big Data.
  • Comprendre quelles transformations des rôles et des processus sont nécessaires pour conduire un changement durable dans votre entreprise.
  • Découvrir les solutions leader du marché qui associent matériel, logiciel et services, afin de répondre aux besoins de l’entreprise quelle que soit sa taille.
  • Echanger avec les experts de l’écosystème EMC ainsi qu’avec vos pairs.

Réservez dès aujourd’hui votre journée pour venir à la rencontre d’EMC et de nos partenaires, leaders du secteur.

Ne manquez pas cette opportunité d’enrichir votre réflexion et de découvrir comment vous allez transformer votre organisation IT et faire évoluer votre entreprise.

Partenaires
Global Sponsors
Platinum Sponsors
Suivre

Big Data : « Data Homines »… ou l’alchimie à l’ère numérique

Ou quand les alchimistes de l’information se mutent en Data Scientists !!!

Il est assez étrange qu’un Aldous Huxley moderne ou qu’un nouveau George Orwell ne se soit pas encore emparé de la fantastique explosion des données numériques dans l’univers.

L’auteur du « Meilleur des mondes » ou celui de « 1984 », s’ils vivaient le 21è siècle,  auraient sans doute aimé écrire l’un de ces récits que les pédants appellent «  dystopiques », pour évoquer le spectacle redoutable d’un monde en proie au chaos des zettaoctets, que seuls quelques savants fous  seraient capables de rassembler et de contrôler pour assurer leur tyrannie sur le reste du genre humain….

Ce ne serait naturellement que de la fiction. Mais en est-on si loin, quand on voit ce qui se passe sous nos yeux, et qui pourrait nous dépasser ? Ce n’est pas du tout « Big brother ». C’est déjà  « Big data ». Il faut en prendre conscience.

Les dernières études montrent en effet que le nombre des informations en circulation, de toutes sortes et de toutes natures, fait plus que doubler tous les deux ans. Le volume des données numériques créées en 2011 atteindra le chiffre littéralement colossal de 1800 milliards de gigaoctets. Colossal, mais aussi terriblement inquiétant, si l’on considère que moins d’un tiers de l’information présente dans l’univers numérique bénéficie d’un niveau de sécurité ou de protection minimal.

De la dystopie à l’utopie – qui, elle, rend positif ce qui pourrait être négatif, en permettant  l’utilisation intelligente des nouvelles possibilités numériques -, il n’y a qu’un pas. Ou, plutôt, qu’une expertise…

Celle d’une nouvelle génération de professionnels, capables de dégager une vision claire, utile et ordonnée de cet incroyable volume d’informations mis de toutes parts à notre disposition. « Data hominem », ainsi auraient pu être appelés ces spécialistes qui savent collecter, analyser les données pour ensuite les appliquer de manière utile et productive au « Business ».

De l’autre côté de l’atlantique on parle déjà de « Data Scientists ». Nous on a choisi, plus prosaïquement, le nom d’« experts en science des données ». Experts en effet, puisque leur métier est de faire face à l’extraordinaire complexité de la ressource, de cette immense nébuleuse en constante expansion, de ce « Data mining 2.0 », pour employer un anglicisme évocateur.

Leur place première est évidemment dans l’entreprise. Les entrepreneurs du monde entier sont en effet amenés aujourd’hui à s’intéresser de plus en plus aux « Big data », et à investir  dans ce domaine. Notre rapport « Digital Universe » réalisé par IDC, indique que d’ici à 2020, les entreprises auront besoin de 10 fois plus de serveurs qu’aujourd’hui pour accompagner leur croissance. Ce qui constitue un défi, que beaucoup d’entre elles ne sont pas encore prêtes à relever. Cependant, ce défi est également une opportunité, que l’appel  à  l’un des Data Scientists, ces experts en science des données leur permettra de saisir.

C’est un métier périlleux. Car les données sont partout. L’expert doit être capable de passer au crible un très large éventail d’informations, venues de sources multiples : réseaux sociaux, sites innombrables du web, études économiques, Blogs, Forums, archives numériques, etc., avant d’être en mesure de sélectionner celles qui seront directement utiles à l’entreprise. Il agit en véritable « alchimiste de l’information », reliant entre eux les points différents pour faire apparaître les tendances, et offrir une réelle visibilité dans cet amoncellement de minerais brut qui va soudain se transformer en information précieuse conduisant l’entreprise à prendre des décisions d’une pertinence inconnue jusqu’alors.

Une fois les données ainsi rassemblées, stockées et ordonnées, l’expert doit procéder à leur « conditionnement », en utilisant les techniques d’optimisation et de gestion qui en permettront une exploitation intelligente. Une nouvelle génération de bases de données analytiques va lui faciliter la tâche, car leur architecture particulière en fait des « super calculateurs » analytiques super rapides, pouvant traiter des volumes colossaux en un minimum de temps.

Conférence Big Data IDC du 12/11/2011

Webcast : Le phénomène Big Data : une menace mais surtout de nouvelles opportunités par Jean-Yves Pronier

Durée 20 mns (conférence IDC du 12/11/2011)

Si l’expert doit évidemment maîtriser parfaitement la technologie, il doit également être un excellent statisticien, posséder l’art des mathématiques et être ouvert sur le monde des réseaux sociaux comme celui du web n.0. Il doit en outre être ouvert sur les matières juridiques : des questions peuvent en effet se poser quant à l’utilisation, par exemple, d’informations privées, protégées ou sécurisées venues de sources externes.

Ce n’est pas tout. L’expert en science des données ne peut pas se contenter de compétences techniques et scientifiques. Il doit également faire preuve de créativité, jusqu’à s’intéresser au domaine artistique. Car il doit être capable de créer des représentations intelligentes et intelligibles des données, puis d’établir des corrélations visibles entre les différentes composantes.

Enfin, à toutes ces qualités il faut ajouter celle du communiquant, puisqu’il a  la charge de présenter aux différents départements de l’entreprise la version finale de ses travaux. A ce titre, il doit se comporter et être reçu comme un membre à part entière de l’équipe.

Un oiseau rare, cet expert en science des données, ce touche à tout omni présent ? Oui, dans un certain sens, puisque son ambition est de « transformer la matière brute en or », au bénéfice de son entreprise. Sans subjectivité. Mais en faisant preuve d’une extrême curiosité.

Une espèce dont les représentants sont difficiles à trouver et à recruter ? Certes, mais le besoin va grandissant, au rythme même de l’explosion du nombre des données disponibles.

Au bout de tout, le rôle de l’expert en science des données va bien au-delà des intérêts mêmes de l’entreprise qui l’emploie. Lui et ses semblable constituent sans doute la meilleure défense contre les risques induits par l’explosion de l’univers numérique.

C’est grâce à eux qu’aucun nouvel Orwell ne pourra écrire un 2084 apocalyptique…

Étiquettes :

Big Data : comprendre ce qu’il se passe et anticiper !


EMC a sorti il y a quelques jours la cinquième édition de l’étude Digital Universe  “Extracting Value from Chaos“. 

Une fois par an, nous proposons d’évaluer la taille de l’univers numérique, et d’observer le rythme de croissance du volume d’informations sur la planète. En 2010, le volume de données de l’univers numérique marquait un événement en introduisant un changement d’unité: le zettaoctet. Celui-ci passait de 0,8 à 1,2 zettaoctet (1,2 milliard de giga-octets).        

En quelques chiffres, un volume de 1,8 zettaoctet de données équivaudrait au volume d’informations :

  • engendré si chaque habitant de la planète subissait chaque jour plus de 215 millions d’IRM à haute résolution ;
  • contenu dans plus de 200 milliards de film HD (d’une durée moyenne de deux heures). Il faudrait à une personne 47 millions d’années pour en visionner l’intégralité, si tant est qu’elle s’y consacre 24 h/24, 7j/7 ;
  • nécessaire pour remplir 57,5 milliards d’iPad d’une capacité de 32 Go                                                                                                                                                     

 

En 2011 cette nouvelle étude nous apprend que la planète sera un peu plus lourde 😉 en passant à 1,8 zettaoctet en 2011, et à 35 en 2020. 

Je pense même que les volumes devraient dépasser ces prévisions au vu des rythmes de croissance observés actuellement.

Si 75 % des données sont créées par des particuliers, 85 % de ce volume est géré par des entreprises, comme la votre, la mienne ou à l’opposé du spectre comme Facebook ou Google. 

 

Bad news, une pression supplémentaire pour les DSI

La technologie nécessite de l’humain mais à peine plus de moyens seront disponibles pour endiguer l’explosion

 

En 2020, le volume de données géré sera multiplié par 50 avec 75 fois plus de fichiers, et entrainera une multiplication par 10 des serveurs physiques.


Durant cette période, IDC estime que le personnel informatique pour gérer ces infrastructures ne sera lui multiplié que par 1,5 !     

 

 

Autre résultat qui permet de contenir partiellement l’explosion, le coût relatif des équipements informatiques en 2011 pour gérer 1 Go de données coûte 1/6 du prix comparé aux coûts en 2005. Pendant la même période, l’investissement des entreprises sur cet univers numérique n’a augmenté que de 50 % (pour atteindre 4 milliards de dollars : matériel, logiciel, services et personnel). Heureusement, l’évolution des technologies permet de réduire les volumes et d’automatiser une partie de plus en plus importante des tâches. 

Et le Cloud Computing, effet salvateur ?

La situation devient chaque année plus critique! Une part intéressante, mais limitée de l’IT prendra la direction du Cloud. Mais ne protègera que partiellement de l’orage : en 2015 le Cloud abritera  au maximum 1,4 zettaoctets sur un volume total de 7,9 zettaoctets. 

Si en 2011, les dépenses sur le Cloud ne représenteront que 2 % des dépenses informatiques dans le monde, entre 2011 et 2020, 20 % des informations devraient transiter à travers le cloud, tandis que 10 % devraient y résider.» Si cette évolution peut atténuer la problématique du stockage, elle semble bien légère face aux 35 zettaoctets. 

Et si les technologies de stockage restaient en l’état il ne serait alors plus possible de stocker les données dans 2 ou 3 ans… Néanmoins EMC veille 😉 avec entre autre l’évolution rapide de nos technologies grâce au thin provisioning, de la déduplication, de la compression, de la virtualisation, etc.

EMC proposent déjà ces technologies de plus en plus performantes et continue d’investir 20% de son C.A pour faire face aux défis à venir. Mais pour le DSI, le Cloud reste un bol d’oxygène.


La sécurité: encore une option ?

Malgré la multiplication des règles de conformité, la sécurité de l’information progresse lentement. Ce que démontre l’étude en évaluant que seul un tiers des 1,8 zettaoctet de données générées en 2011 seraient “plus ou moins” sécurisés, soit environ 0,6 zettaoctets. 
C’est un chiffre alarmant car, le besoin de sécurisation des informations devrait concerner environ 50 % du volume global. Et je ne parle pas seulement des problématiques de sécurisation d’accès, mais aussi et surtout de la protection de ces données au sein de l’entreprise.


Big Data : quand un « Tsunami » de donnée se transforme en mine d’informations.


Pour IDC, le phénomène Big Data est une réalité qui devient plus visible et se répand grâce à la baisse des coûts du stockage, des technologies de capture de l’information, et aux solutions modernes d’analyse des données.

« Big Data ne concerne ni la création de contenu, ni sa consommation. Il s’agit d’analyser toutes les informations liées au contenu » précise IDC.

 

« Big data technologies describe a new generation of technologies and architectures, 

designed to economically extract value from very large volumes of a wide variety of data, 

by enabling high-velocity capture, discovery, and/or analysis » 

 

Pas nouveau ? Pas si certain car nous évoluons depuis une trentaine d’années dans un monde ou les données sont générées par l’entreprise elle-même. Le changement radical aujourd’hui est que la performance de l’entreprise vient de plus en plus de sa capacité à agréger des données extérieures. Regardez ce qu’il se passe pour l’intelligence économique… Sans tenir compte de cet afflux de données nos clients observent déjà une augmentation de +50 % à +60 % des données dans leur système d’exploitation

Ces données extérieures sont pour la plupart non-structurées. Et bien 90% de l’explosion à venir vient des ces données d’un nouveau type.

Quel intérêt ? Prenons un exemple, jusqu’à présent, un responsable marketing dans le B2C exécutait des analyses et organisait son CRM autour des données clients disponibles au sein du système d’information. Aujourd’hui, il doit en plus prendre en compte les informations présentes au travers de sources externes : dans les réseaux sociaux pour effectuer des agrégations/corrélations, des analyses comportementales, de la géolocalisation, des études macro ou micro économiques, des résultats de recherches démographiques, etc. 

Le Big Data n’est pas un nouveau « buzz » marketing mais une nouvelle étape dans la transformation de la donnée en information métier et de sa valorisation. A un niveau plus stratégique on peut se dire que le Big Data sera une véritable prime à la performance de l’entreprise.

Le triptyque Big Data d’EMC : Stocker, Interpréter et Valoriser.

Il devient donc de plus en plus nécessaire d’avoir recours à des solutions adaptées à ces nouveaux enjeux. EMC se positionne fermement sur Big Data après notre acquisition de Greenplum pour proposer un logiciel de base de données, scalable et massivement parallèle, et des appliances de datawarehouse haut de gamme, complétées par des technologies d’optimisation du stockage « scale-out » comme Isilon ou les gammes VNX et VMAX dans une approche traditionnelle.

Pour finir parlons de valorisation avec des outils de gestion de contenu comme Documentum permettant de mettre l’information à la disposition de ceux qui ont en ont besoins pour prendre leurs décisions au quotidien.

Téléchargez l’étude EMC-IDC Digital Universe 2011