Du Big Data en 2015 au All Data en 2016 : La DSI doit rééquilibrer ses priorités

Auteurs :

Contactez

10 minutes

En 2015, les DSI ont pris pleinement conscience que le digital imposait un nouveau paradigme d’architecture du système d’information. Ils ont d’ailleurs porté leurs réflexions sur les plans de construction de ce SI digital (quel modèle d’architecture SI ? quid de l’existant ?), sur les socles d’architectures nécessaires pour le motoriser (quelles technologies ?) et sur la meilleure trajectoire stratégique pour opérer efficacement cette mutation digitale à partir d’un SI existant largement en silos. Le « comment faire » a été un sujet fortement débattu avec une question centrale aussi fondamentale que compliquée : comment concilier à la fois agilité du monde digital et industrialisation du cœur métier porté historiquement par les legacies. L’idée, bien que non neuve, qui a fait son chemin a été de considérer qu’il ne faut pas essayer de s’attaquer de front à l’ensemble du SI, mais de raisonner autour d’un SI bi-modal à deux vitesses, d’un côté un SI agile à haute vélocité tournée vers l’innovation métier par les technologies et en prise directe avec l’écosystème digital, de l’autre le SI traditionnel, plus stable et précis, assurant la résilience des invariants d’entreprise et à cycle de vie plus long.

En 2015, les DSI ont essentiellement concentré leur effort sur le SI agile autour de quatre fondations architecturales essentielles : le socle de données pour stocker et traiter les Big Data; le socle d’analyse pour valoriser cette nouvelle manne de données, le socle d’intégration pour être en mesure de répondre à la vélocité et à la variété d’ingestion et de distribution des volumes croissants, mais aussi se mettre en position de répondre à l’évolution inexorable vers le Cloud hybride et enfin, dans une moindre mesure le socle d’orchestration et d’évènement pour piloter plus dynamiquement la relation client.

Quelles étaient les tendances décisives pour 2015 ?

Une amplification du mouvement vers une architecture centrée donnée

Coté donnée, le Big Data a occupé sans surprise le haut de l’agenda en matière de nouveaux investissements. Les entreprises ont exploré et commencé à adopter la Data-Centric Architecture, un nouveau paradigme d’architecture centrée donnée visant à construire un socle de données et de traitements partagés et un modèle d’intégration par les données (DCA) et plus seulement par les services (SOA) ; le tout en s’appuyant sur les technologies et concepts des géants de la données comme l’emblématique Data Lake. Passer les premières expérimentations Big Data, le passage à l’industrialisation et le déploiement des premiers usages en production ont vu resurgir les sempiternels sujets de Data Governance , de Data Quality et de Life Cycle Management du socle technologiques, des données (socle de contenu) et des usages... L’approche centrée donnée s’est également étendue, au-delà des données incarnées par les Big Data, aux données transactionnelles et référentielles traditionnelles historiques de l’entreprise. Cela a conduit à challenger les pratiques actuelles sur les données en termes de modélisation, d’implémentation et de localisation des règles d’intégrité.

Un fort questionnement sur l’évolution de la Business Intelligence

Coté analyse, le Digital Marketing et ses logiques d’animation de la conversation client en temps réel et d’anticipation de la meilleure action à faire, au meilleur moment, au meilleur endroit, sur le meilleur canal et média avec toutes les données à disposition a suscité de nombreuses interrogations sur l’évolution du paradigme d’architecture décisionnelle actuel qui a conduit à une rupture temporelle entre information et action inadaptées aux nouveaux besoins d’analyses opérationnelles temps réel, de R&D sur les données (Data Science) et plus globalement de Self-Services BI réclamés par les directions métiers pour pouvoir réaliser des analyses ad-hoc sans passer par la case DSI et au grain d’information aussi fin que nécessaire.

Des premiers pas vers l’API economy, une résurgence de la (micro)SOA

Coté intégration, l’approche Micro-services, loin d’être révolutionnaire – certains la qualifie de « SOA done right » – est venue redynamiser la sacro-sainte SOA (Service Oriented Architecture) pourtant délaissée progressivement depuis 2010 face aux difficultés à la concrétiser à l’échelle du SI (absence de gouvernance des services, manque de méthodologie de conception fonctionnelle des services, difficulté à modéliser les processus, etc.). L’approche micro-services éclairée de celle data-centrée a même abouti à l’émergence d’un nouveau mixte méthodologique combinant l’approche historique SOA (Process-Driven SOA) avec une nouvelle approche SOA centrée donnée (Data-Driven SOA). Cette dernière ayant l’avantage de pouvoir être conduite directement à partir des objets métiers et sans nécessité de modéliser les processus métiers. De nombreuses DSI ont également commencé à céder aux sirènes de l’API Management. Cela s’est traduit par le lancement études d’opportunités avec un prisme sur le volet sécurité versus l’intégration des partenaires. Un angle d’étude qui a d’abord visé à challenger les socles d’intégration actuels avec les nouvelles plateformes plus qu’embrasser l’API Economy (intégration d’API tiers, extension du business model de l’entreprise via le développement d’un écosystème allant au-delà des partenaires traditionnels, monétisation d’un savoir-faire, d’une capacité ou encore d’une connaissance interne…).

BPM, le réveil de la force

Coté orchestration, la perspective de devoir supporter des processus omni-canaux, par essence dématérialisés, non-linéaires et interruptibles, a fait prendre conscience aux entreprises de la nécessité de pouvoir adapter l’exécution de certains de leur processus clients selon le contexte d’usage et d’être en mesure de déclencher des processus ad-hoc pour palier à tous comportements imprévus, licites ou illicites. Cette prise de conscience à réveiller l’intérêt des entreprises pour les systèmes de gestion des processus présentés depuis des années comme la next big thing mais qui n’ont pas réussi à s’imposer à l’échelle de l’entreprise, jugés notamment trop lourds, trop propriétaires, voire trop intégrés pour ne pas dire monolithiques. Un renouveau aussi encouragé par la démocratisation de technologies annoncées comme plus flexibles et plus intelligentes (ie. Advanced Case Management , iBPM).

Quelles tendances clés pour 2016 ? L’année 2016 sera marquée par un rééquilibrage des priorités SI. Si les investissements dans le Big Data se poursuivront, les investissements se rééquilibreront autour du sujet intégration au cœur de la bi-modalité nécessaire du SI, entre le SI stable et hautement industrialisé et le SI véloce et hautement adaptatif du nouveau monde digital. Pour gérer ce SI à deux vitesses, l’architecture du SI devra favoriser le couplage faible entre ses composants : les composants du SI traditionnel, à longue durée de vie devront être exposés ou détourés via des services ne portant que les invariants métiers et totalement agnostiques du contexte d’usage pour servir les usages omni-canaux alors que les composants du SI agile à haute-vitesse devront embrasser l’approche micro-services pour limiter leur empreinte fonctionnelle et permettre leur développement sur la technologie du moment la plus appropriée. L’intégration entre l’ensemble de ces composants devra privilégier le mode évènement (Event Driven Architecture), qui est à la fois le modèle d’intégration le plus flexible et le plus pérenne et le cœur de l’orchestration des processus métiers.

Sur le plan technologique, l’année 2016 s’annonce compliquée pour les décideurs SI avec une offre surabondante dans laquelle il est de plus en plus difficile d’y voir claire. Les entreprises devront chercher le meilleur mixte-technologique par rapport à leur priorités. Pour cela, elles n’auront d’autres choix que d’évaluer par elles-mêmes tant leur maturité technique que les cas d’usages qu’elles sont réellement capables de motoriser. Vérifier l’apport réel pour l’entreprise via des preuves-de-concept à valeur Business et IT, incluant les dimensions économiques, conduite du changement et gouvernance tant métier que DSI restera plus vrai que jamais.

Pour articuler ce SI à deux vitesses, les entreprises devront porter leurs efforts d’une part autour des technologies d’hybridation de leur SI pour en faire un System of Systems bi-modal dynamique et performant et d’autres part autour des technologies de Big Data Analytics leur permettant d’extraire de la valeur sans latence métier de toutes les données à leur disposition et au plus près de leur occurrence lorsque les usages le nécessitent.

L’Hybrid Cloud Architecture, pas qu’une question de technologie

Face à la complexité digitale, les entreprises devront de plus en plus se tourner vers un système d’information fait d’un assemblage de services internes et externes. Faire que cet assemblage créé plus de valeur que la somme des valeurs de chacun des services qui le compose va devenir une préoccupation majeure. Mais, construire un système hybride capable de tirer la quintessence des ressources internes (e.g Legacies) et externes (e.g Cloud Services, Open Data) et gérer le SI à deux vitesses ne trouvera pas sa réponse uniquement dans la technologie. Cela passera d’abord par la définition de nouveaux modèles d’intégration. En particulier pour accéder aux différents réservoirs de données existants, par nature hétérogènes et distribués, les architectes SI devront, faute de pouvoir transformer tout le SI, combiner des modèles laissant les données là où elles naissent avec des modèles cherchant à les centraliser de façon native ou dupliquée. Des modèles qui pourront sur le volet intégration être déjà en partie déployés avec les socles d’intégration existants dans l’entreprise (eg. MOM, ESB). De nouveaux modèles de sécurité devront également être mis en œuvre. Il s’agira moins de sécuriser l’accès aux applications que l’accès aux données.

La data virtualization de façon tactique

L’effort au long court à consentir pour acquérir, maîtriser et industrialiser l’ensemble des technologies d’intégration et de synchronisation nécessaires pour assurer la cohérence et la disponibilité des données en tout point du SI pourraient conduire les entreprises à se tourner pour certains cas d’usage d’analyse à time-to-marketrapide vers des technologies alternatives de Data Virtualization et de Data Federation. Des technologies dont l’attrait repose sur un modèle visant à constituer une couche d’abstraction des données permettant d’une part d’offrir un point d’accès unique à l’ensemble des données de l’entreprise sans avoir à les déplacer et d’autre part délivrant un ensemble de services intégrés sur les données ainsi virtualisées. Dotées d’algorithmes intelligents évaluant notamment le meilleur ratio coût/performance d’une opération sur un ensemble de données et de moteurs d’exécution haute performance , ces technologies promettent par exemple de définir le meilleur schéma d’exécution d’une opération. L’algorithme détermine ainsi dynamiquement à l’exécution et ce, sans avoir à déplacer/réconcilier préalablement les données, la meilleure stratégie d’exécution de l’opération selon différents critères : la nature de l’opération (jointure, agrégation, enrichissement, fusion, dédoublonnage…), la localisation des données (base de données relationnelles et non relationnelles, lac de données…), les capacités des technologies sous-jacentes portant ces données (sgbdr, base nosql, hadoop…) voire la véracité et la pertinence des données du patrimoine informationnel à disposition (analyse sémantique). Il est clair que si les performances sont raisonnablement au rendez-vous et que les cas d’usage ne sont pas trop limités notamment pour des scénarii de jointure complexes, ces technologies « click & play » pourraient bien être le blockbuster tactique de l’année auprès des directions métiers. Mais, pas sûr cependant que ces technologies puissent devenir un socle d’architecture stratégique.

Du Big Data au All Data

Etre capable d’intégrer l’ensemble des données et les rendre disponibles aux différents usages sera inutile sans capacité à en tirer de la valeur en juste à temps. Une valeur qui ne découlera pas uniquement de l’analyse des Big Data (e.g Tweets, Likes, Video, GPS Data) mais de l’ensemble des données de l’entreprise et quel que soit leur lieu de résidence SI. Pour traiter de façon efficace ces All Data, les entreprises n’auront pas d’autres choix que d’introduire, au-delà des technologies de fédération de ces données, des technologies capables de leur simplifier l’extraction de valeur de plus en plus au fil de l’eau (Data Stream Analytics).

L’API-Culture, facteur d’outsourcing

Avec l’APIsation de son SI et l’évolution des modèles de sécurité (protection associée aux données et qui suit les données) la DSI pourra revoir sa stratégie pour les socles structurellement les moins pérennes comme c’est le cas pour les User Experience Frameworks en mouvement perpetuel. Dans un marché aussi atomisé que celui-ci, la DSI pourra renoncer à l’idée de se doter d’un socle unique commun et durable (une quête perdue d’avance) et s’orienter vers un outsourcing complet de la réalisation de ces frontaux digitaux laissant à un partenaire spécialisé la responsabilité de lui concevoir, développer et déployer dans le Cloud Hybride l’expérience utilisateur la plus engageante en se contentant de lui mettre à disposition uniquement des APIs sécurisés.

En 2016, la DSI devra donc veiller à se ré-orienter autour de la gestion, de la cohabition et de l’intégration d’un SI inévitablement à deux vitesses. Néanmoins, elle ne pourra le faire complètement sans intégrer aussi le Machine Intelligence et l’Event Processing. Le Machine Intelligence pour suppléer notre incapacité à interpréter les All Data tant en termes de pertinence, de vitesse que de coût. L’Event Processing pour assurer le liant entre l’orchestration des processus métier (interpréter, corréler et filtrer en amont les évènements), l’Internet-of-Everything et l’Information-of-Everything. Des technologies à observer impérativement en 2016 car promises à devenir des fondations majeures et centrales du système d’information de l’entreprise 3.0.