smart solutions for smarter enterprises

Big Data : nouvel eldorado pour les éditeurs ou vraie rupture pour les entreprises ?

Big Data : nouvel eldorado pour les éditeurs ou vraie rupture pour les entreprises ?

Le terme « Big Data » est-il uniquement censé faire vendre ? Ou cache-t-il une (r)évolution plus profonde ? Le « Big Data » (l’analyse de données à grande échelle) a fait irruption dans le paysage informatique en remettant au premier plan la sempiternelle problématique de gestion et d’exploitation de l’information dans les entreprises. Pour les séduire et répondre aux enjeux de traitement de hautes volumétries, les éditeurs multiplient les annonces de solutions spécialisées et le nombre d’évènements, séminaires consacrés au sujet explose. Si la croissance exponentielle des informations ne date pas d’hier, c’est bien leur frontière, nature, hétérogénéité et diversité qui concentrent les problèmes les plus ardus pour en tirer une réelle valeur ajoutée pour l’entreprise.

Avec l’explosion des usages internet et mobiles (réseaux sociaux, nouveaux services profilés…), l’entrée des terminaux de communications intelligents et plus généralement des boitiers communicants dans tous les aspects de la vie quotidienne et du monde industriel, les directions métier doivent repenser leur gestion de l’information pour faire face à ce tsunami de données. Leur objectif : gagner la bataille des données en étant les meilleurs dans l’exploitation de ces nouveaux gisements de données encore difficilement exploitables : volumes exponentiels à manipuler, critères de corrélation complexes, variabilité dans la qualité, hétérogénéité des structures, cycle de vie et fréquence différentes, contraintes sécurités, exigences légales …

Et c’est bien là tout l’enjeu du « Big Data». Coté métier, il s’agit de pourvoir exploiter efficacement ce nouvel eldorado de l’information à moindre en coût (transformer une donnée brute en information et connaissance actionnable), car à la clé se joue une partie importante de la compétitivité de l’entreprise (innovation, fidélité et satisfaction client…). Côté DSI, l’heure n’est plus à l’attentisme. Il faut commencer à apporter des réponses concrètes et impérativement adresser le sujet pro-activement.

Pour s’en convaincre, il suffit d’observer l’expansion et la démocratisation sur le marché des technologies et solutions « Big Data » : stockage de masse, MapReduce, Complex Event Processing, géolocalisation, virtualisation de données… et surtout, l’arrivée de premières références probantes dans tous les secteurs d’activité.

Une observation qui montre également que le champ des usages potentiels est aussi immense (nouveaux services basés sur une connaissance fine des comportements, identification de prospects, émergence de tendances, détection d’action illicite, anticipation de problèmes et dérives, fiabilisation des prévision de ventes, optimisation des chaînes d’approvisionnement …) que le sujet est complexe (variété, diversité et vélocité des données et sources à traiter, technologies plurielles à mettre en jeu, expertises multidisciplinaires à concilier : juridique, sémantique, architecturale, technique…).

Cette caractéristique impose au niveau de l’entreprise, d’agir avec discipline et, comme face à toute nouvelle vague, d’en prendre la pleine mesure aussi bien en termes de gouvernance, de technologies, pratiques et méthodes que de services pour en permettre d’en déployer efficacement les usages, c’est-à-dire des applications concrètes à forte valeur ajoutée.

Alors, même si le champ complet des applications reste à découvrir, poser les premières pierres de la stratégie « Big Data » de l’entreprise exige d’abord d’identifier un premier ensemble d’usages, qui serviront d’ADN aux premiers choix technologiques, processus et services associés. Le « Big Data » ne se résume pas une technologie. On n’achète pas sur étagère une suite « Big Data ». Le « Big Data » est un assemblage de technologies et donc de pratiques, processus et services qui doivent être mis en cohérence et coordonnés, gage de réussite et de rentabilité des investissements à consentir. Une tâche non sans difficulté, qui nécessite une approche ‘smart’ dirigée vers un seul objectif : délivrer la promesse du « Big Data » de transformer des masses de données brutes en stratégies gagnantes.

  • Ne pas se noyer dans le « Data Lake »

Le « Big Data » promeut la constitution d’un ‘Data Lake’, espace de collecte et de mise à disposition massive de données brutes sans organisation ou structuration a priori, matière première des travaux d’analyse pour rendre l’information actionnable.

Permettre aux différents métiers d’en tirer la quintessence via les justes regroupements et recoupements ne peut être envisagé sans la mutualisation des initiatives à l’échelle de l’entreprise pour constituer un dispositif pérenne, industriel et économiquement viable : un socle « Big Data » au service des usages.

Ce socle doit permettre aux utilisateurs de ne pas se noyer dans le ‘Data Lake’. Il doit :

  • porter les principes d’association et corrélation de données hétérogènes fondamentales au « Big Data » et susceptibles de révéler les tendances implicites recherchées par les métiers,
  • mutualiser les investissements technologiques : « appliances Big Data » telles que celles proposées par Teradata, Netezza ou Greenplum ; solutions de « Complex Event Processing » éditées par Progress Software, TIBCO, Oracle ou IBM ; ou encore les nœuds des architectures de traitement massivement distribué de type « data grids » et « clusters Hadoop »,
  • garantir la qualité de service aux utilisateurs et coordonner les besoins concurrents de ressources par une gestion globale multi-usages. Une responsabilité qui passe notamment par un pilotage et une régulation fine des capacités d’infrastructure de stockage et d’analyse. Sur ces aspects, les offres du ‘Cloud’ (Amazon Web Services, Opera Solutions, 1010data, …) et les distributeurs Open Source (MapR, Cloudera, Hurence, …) sont impérativement à considérer pour garantir le meilleur mix efficacité opérationnelle – efficacité économique.

Enfin, le socle « Big Data » doit être construit de façon incrémentale selon une feuille de route qui garantit dans la durée la cohérence du mix gouvernance-services-produits (au sens technologies & méthodes) en cohérence avec le déploiement des usages, leur maintien en condition opérationnelle notamment lors des montées de version du socle.

  • Se doter d’une « Big Data Team »

La construction du socle « Big Data », ses évolutions, son exploitation, et plus globalement sa gouvernance long terme requiert la mise en place d’une organisation dédiée intégrant des ressources expertes sur le sujet. Des ressources encore très rares aujourd’hui, mais en plein développement. IBM qui a lancé sa « Big Data University » en Octobre 2011 a ainsi déjà enregistré plus de 18 000 étudiants qui suivent ses cours en ligne. La plupart sont des statisticiens, des mathématiciens, des ingénieurs logiciels et autres professionnels de l’informatique.
Cette « Big Data Team » en responsabilité du socle «Big Data » doit être distinguée des équipes utilisatrices du socle : alors qu’elle a pour responsabilité la construction et la gestion de la chaîne analytique, les équipes utilisatrices quant à elles construisent et gèrent les analyses elles-mêmes. Socle et usages ont un cycle de vie qui leur est propre.

Les équipes utilisatrices sont autonomes mais accompagnées d’un support et d’une expertise de l’équipe socle, nécessairement pluridisciplinaire :

  • Des ‘Data scientists’ spécialisés en ingénierie statistique et traitement de l’information, sensibilisés aux enjeux du « Big Data », et capables d’accompagner les interlocuteurs métier,
  • Des experts en conception, développement et administration de composants implémentés sur les technologies innovantes : Hadoop et MapReduce, bases de données NoSQL et orientées colonnes, plateforme analytique ‘R’…
  • Des architectes garantissant la cohérence de l’infrastructure applicative et technique et des pratiques d’ingénierie d’une plateforme fortement hétérogène en rupture avec l’existant (boitiers logiciels et matériels, outils de pilotage spécialisés, stockage et traitement distribués sur ‘commodity hardware’, connectivité à faible latence…)
  • Viser le « Big Data As A Service »

La complexité et la disparité des composants techniques sous-jacents au « Big Data », ses caractéristiques hors normes, aussi bien sur la volumétrie des données, les capacités de calcul intensif et les exigences de réactivité militent fortement pour la mise en place d’une offre « SaaS » privée ou publique et plus vraisemblablement mixe pour tirer avantage de services du cloud de type « Analytic-as-a-Service ».

Une telle approche sécurise les usages par une qualité de service contrôlée. Elle rend possible une utilisation agile en ‘bac à sable’ pour les analyses exploratoires, combinant simultanément les exigences de fraîcheur de données issues des systèmes de production, d’étanchéité des traitements potentiellement gourmands et de degrés de liberté nécessaires à une analyse itérative. Elle simplifie l’orientation ‘multi-tenante’, multi usages indépendants que doit vitalement supporter le socle « Big Data ».

  • Big Data, Big Challenge, Big Opportunity

S’engager dans le “Big Data” nécessite d’abord et avant tout d’acquérir une bonne compréhension du sujet. Comprendre pourquoi et comment l’utiliser est critique pour s’assurer que le retour sur investissement sera soit bien au rendez-vous. Ne pas se tromper de cas d’usage est essentiel. Le « Big Data » recèle un potentiel énorme et si les choses avancent vite en termes de solution, en délivrer la promesse reste complexe. Toutes les entreprises qui s’intéressent sérieusement à l’exploitation optimale de leur capital données ne peuvent passer à côté du sujet « Big Data ».

Be Sociable, Share!
Laisser une réponse

*