Article réservé aux abonnés Archimag.com

La Ged, c’est fini !

  • cercueil_fleur.jpg

    cercueil-fleur-enterrement
    La Ged est en retard sur son agenda. Elle n’a globalement pas su livrer ce dont les organisations avaient besoin. (wickenden via VisualHunt.com / CC BY-SA)
  • Les solutions pour gérer les documents tels que nous les connaissons vont disparaître à moyen terme. Les éditeurs vont devoir évoluer, se faire acheter, ou s’éteindre. Quant aux archivistes et aux informaticiens concernés, c’est certain, leurs fonctions vont évoluer ou disparaître.

    L’objectif principal et initial de la gestion électronique de documents (Ged) était de permettre la gestion de vos documents au travers d’un plan de classification et d’un calendrier de conservation, et bien entendu de retrouver vos « affaires » dans la masse de ce que l’on appelait les archives.

    philippe-goupil

    Nous avons connu historiquement des solutions majeures et massives apparues dans les années 90, s’appuyant sur des bases de données SQL. Le marché s’est développé progressivement au travers d’importants chantiers en clientèle, pour les gros joueurs comme Filenet (racheté par IBM en 2006), OpenText, Stellent (racheté par Oracle en 2006) ou encore Documentum (racheté en 2003 par EMC, puis par Dell en 2016 qui l’a revendu à son tour, la même année, à OpenText).

    Projets souvent sans fin et coûteux

    Par la suite, la plateforme SharePoint de Microsoft est arrivée pour tenter de rattraper ce marché avec une offre originale est très ouverte, suivie par des solutions open source (ouvertes par définition), comme Alfresco, leader dans ce mouvement. Ces solutions ont aussi été proposées aux petites et moyennes organisations. Finalement, le résultat est comparable aux « grosses solutions » : des projets souvent sans fin, aux coûts hors de proportions par rapport aux attentes de la clientèle.

    1. Les solutions majeures

    Ces solutions ont été conçues en premier lieu pour répondre à ce que nous appelions, à l’époque, de gros volumes en s’appuyant sur les bases de données SQL. L’ergonomie n’était pas vraiment une préoccupation prioritaire, pourvu qu’il soit possible de conserver en sécurité et de rechercher ses documents.

    Ces solutions ont souvent été décevantes. Les dérives au niveau de l’adaptation aux règles d’affaires, et des contraintes d’intégration puis d’infrastructures, aggravées par une croissance majeure des volumes à traiter, ont mené à l’essoufflement de nombre de projets. Quant aux solutions ouvertes comme SharePoint ou Alfresco citées plus haut, elles se révèlent justement trop ouvertes et deviennent finalement tout aussi contraignantes.

    2. Les solutions mineures

    Pendant ce temps se déployaient des solutions plus modestes développées à partir de DBase, ou Access de Microsoft. De « petits » éditeurs se sont attachés à l’ergonomie de l’interface utilisateur, et à livrer une solution prête à l’emploi. Ils ont pris leur essor dans le contexte de la mise en service de la numérisation ou dans les projets d’archivage documentaire, pour des entreprises de taille moyenne ou certains services départementaux au sein de plus grosses organisations.

    Ainsi, Scanfile (Spielberg), Laserfiche (Laserfiche) ou M-Files (M-Files) ont longtemps été cités comme « petits ». Si le marché ne leur a pas forcément donné la chance de démontrer leur capacité à gérer des volumes importants, ils ont eu l’avantage d’offrir des solutions achevées pour lesquelles les modifications et autres adaptations aux spécificités de chaque organisation se faisaient par simple paramétrage plutôt que par développement informatique.

    3. Offres complémentaires

    Nombre d’éditeurs ont développé des fonctions complémentaires comme la numérisation, ou la gestion des courriels, ou encore des processus documentaires, comme des modules plus ou moins intégrés. Ils offrent une approche de type « tout inclus » avec des fonctionnalités additionnelles issues, la plupart du temps, non pas de développements, mais de rachats de compagnies tierces, comme, par exemple, la gestion des processus, la gestion de la connaissance, ou la BI pour l’intelligence d’affaires.

    philippe-goupil

    Noyade des documents

    C’est souvent une approche d’abord marketing. Cela ne permet de pas d’améliorer la performance de la solution d’origine, mais vise à séduire la clientèle, alors qu’il devient impossible d’empêcher la dégradation de la performance de la solution en place, due principalement à la noyade des documents dans des volumes devenus gigantesques, dans le contexte d’un besoin d’intégration plus large et plus profonde au sein des systèmes des organisations.

    Enfin, nous assistons à un début de concentration avec le rachat de Documentum par OpenText, ce qui en fait le plus gros joueur de la planète. Mais il est maintenant trop tard pour considérer la Ged comme une solution d’avenir !

    Contraintes de la performance, nouveaux enjeux légaux, données

    La Ged est en retard sur son agenda. Elle n’a globalement pas su livrer ce dont les organisations avaient besoin. Elle est surtout confrontée, désormais, à des contraintes importantes comme la performance des infrastructures et surtout de nouveaux enjeux légaux qui impliquent de ne plus gérer les seuls documents, mais aussi les données contenues dans ceux-ci et même les données détenues indépendamment par les bases de données.

    En effet, la législation avance quant à la protection des renseignements personnels et l’accès à l’information.

    Alors :

    • savez-vous ce que contient chacun des documents en votre possession ?
    • est-ce que la totalité des documents a été traitée de manière à en permettre la recherche plein texte ?
    • gérez-vous avec votre Ged et ses règles les documents en cours de collaboration au sein des processus d’affaires ?
    • savez-vous localiser les documents en double et les versions différentes de tout document au sein de votre système d’information ?
    • savez-vous localiser un unique document final signé et archivé ?
    • savez-vous gérer vos données et vos bases de données de manière à respecter les délais de conservation applicables, comme ils le sont pour les documents ?
    • êtes-vous satisfaits de votre solution actuelle ?

    3. Virage

    La solution capable de répondre à ces enjeux anciens devenus gigantesques au niveau des volumes, et nouveaux, pour lesquels ni les solutions ni des déploiements judicieux réalisés ne permettent de répondre, réside dans un virage majeur au niveau de l’architecture. Celui-ci va, d’une part, scinder les activités pour les traitements et, d’autre part, gérer la totalité des documents et des données en gouvernance au niveau de l’entreprise.

    Du côté des éditeurs, nous observerons bientôt le devenir des deux plateformes regroupées sous un même toit. OpenText tente, après plusieurs rachats de compagnies diverses, de séduire ses clients avec une offre « tout inclus ». Mais, est-ce que les utilisateurs de Livelink et de Documentum vont encore croire aux promesses de l’offre globale pour laquelle l’intégration fonctionnelle doit, finalement, être réalisée à la charge du client ? Nous savons maintenant qu’il est souvent préférable d’acquérir le meilleur outil pour chacun des besoins, et maîtriser ces efforts d’intégration, avec des moyens externes non liés à un même éditeur. Votre organisation doit obtenir le meilleur pour chaque besoin, maîtriser son intégration, sa maintenance et ainsi maîtriser ses coûts.

    4. les technologies sont là

    Il manque encore la connaissance sur le marché de ces solutions, de ces technologies innovantes, et la volonté de provoquer ce virage. Mais attention, nous ne sommes pas loin du moment où plus rien ne sera possible pour traiter de manière uniforme l’ensemble des documents, et garantir la conformité légale.

    Par exemple, 2018 est l’année de la mise en application de nouvelles lois en Europe :

    • Mifid II (Markets in financial instruments directive) est une norme qui apporte des changements profonds sur la transparence des marchés financiers et la défense des investisseurs ;
    • le Règlement général sur la protection des données (RGPD).

    5. Comment faire

    Différents axes peuvent nous guider :

    1. La Ged, telle que nous la connaissons encore aujourd’hui, se résume ultimement à un plan de classification et à un calendrier de conservation. Les métadonnées sont sous-utilisées. Cette vue ancienne n’apporte finalement que peu de valeur ajoutée. Souvent, nous ne prenons pas en compte le contenu et les métadonnées des documents qui constituent une mine d’informations.
    2. Savoir exploiter au mieux l’information se trouvant dans les documents procurera un avantage stratégique et compétitif supplémentaire. Il sera fort utile de prendre en compte l’information référentielle se trouvant dans les autres systèmes de l’entreprise, afin d’enrichir globalement l’information.
    3. Les solutions de Ged actuelles n’apportent pas de réponse efficace dans ce sens. De plus, les solutions basées sur des bases de données relationnelles sont incapables de traiter de manière performante l’information de nature non structurée.
    4. Nous devons nous tourner vers des solutions innovantes permettant de collecter, contrôler, corréler et effectuer de l’analyse prédictive et descriptive de très grands volumes de données hétérogènes de nature structurée ou non.

    Utilisation mutualisée des données et des traitements

    Cette révolution dans l’architecture se légitimera par l’utilisation mutualisée des données et des traitements. Par exemple, si un processus d’affaires utilise et met à jour une information, celle-ci sera disponible avec sa mise à jour pour le reste des systèmes de l’organisation.

    À l’arrivée de l’intelligence d’affaires nommée BI (business intelligence) et des ERP (enterprise resource planning), la fusion de l’information a été rendue possible, grâce, d’un côté aux ETL (extraction traitement loading : permet d’alimenter un datawarehouse (entrepôt de données) à partir de plusieurs bases de données variées) et de l’autre aux EAI (enterprise application integration ou intégration d'applications d'entreprise.), devenus aujourd’hui plus évolués sous le terme ESB (enterprise service bus : permet de distribuer les informations entre différentes applications).

    Aujourd’hui, big data et intelligence artificielle, pour des processus de plus en plus automatisés, provoquent une croissance de la manipulation des données dans des proportions gigantesques. 

    Si nous devions lister les principales caractéristiques de la solution idéale, elles seraient les suivantes :

    • gérer et stocker de très grands volumes de données structurées et non structurées (documents, fichiers multimédias, courriels, etc.) ;
    • offrir les fonctionnalités classiques attendues par une Ged ;
    • savoir exploiter les métadonnées comme des données ;
    • intégrer aisément toute source de données existante et future (Ged, progiciels de gestion intégrés, bases de données relationnelles, ressources disponibles sur internet, etc.) ;
    • permettre une intégration non perturbatrice avec les systèmes informatiques existants ;
    • assumer la cohabitation ou la migration de plusieurs solutions de Ged au sein d’une même organisation ;
    • corréler aisément les données non structurées et structurées, de différents systèmes ;
    • proposer un moteur puissant d’indexation et de recherche ;
    • offrir la fonction de bitemporalité (elle permet de disposer d’un tableau précis des données, à tout moment ; cette fonction s’avère particulièrement utile au sein des secteurs réglementés) ;
    • assurer un haut niveau de sécurité afin d’assurer la protection et la confidentialité des données.

    7. Disruption

    philippe-goupil

    La Ged va persister en tant que règles dans l’architecture évoquée ici dans cette vision. Celle-ci s’appuiera sur des bases de données de type NoSQL. Des moteurs de type sémantique statistique et même prédictif seront utilisés pour créer ce qui s’appelle de l’intelligence artificielle. La gouvernance ou l’interopérabilité de l’information deviendra une réalité.

    La classification des documents, et désormais des données, sera représentée dynamiquement aux utilisateurs, en fonction des règles de classification, d’une part, et des règles d’affaires et de sécurité, de l’autre. Le calendrier de conservation des documents comme des données sera appliqué comme une règle.

    Cette approche que je juge et souhaite disruptive est comparable à l’avènement des serveurs en réseaux au début des années 90 en remplacement des mainframes ou gros systèmes, seuls capables de faire les traitements demandés jusqu’à cette époque. Cette génération, encore présente, apportait un progrès majeur avec des coûts moindres, plus de souplesse à déployer et à maintenir, et surtout plus de performance.

    Parmi les changements, je peux anticiper ceci :

    • Les infrastructures vont assurément migrer vers le cloud, avec comme effet principal la disparition des structures lourdes internes, avec les contraintes de gestion de backup, de mise à niveau, etc.
    • Dans ce mouvement les Office 365 et Google doc vont se battre pour le collaboratif, avec un avantage probable pour Microsoft qui, au travers de SharePoint et Dynamics, pénètre l’entreprise plus fortement. Ces applications, comme toute application cloud, doivent être accessible de n’importe où et avec un appareil mobile.
    • Le DSI va s’effacer, comme l’informaticien a passé la main au groupe des infographistes, référenceurs, marketing, etc. dès les premières années du web. La gestion de l’informatique se fera en tant que gestion de l’information, sous le contrôle des propriétaires des processus d’affaires et des données.
    • Les solutions capables de répondre au big data vont prendre la place des solutions actuellement en place. Les bases de données vont progressivement abandonner SQL pour le NoSQL et l’architecture va scinder les données et les documents, des traitements.
    • D’ici cinq ans, la référence à la donnée donnera sa valeur à la donnée elle-même. On pourra la localiser, la gérer et la protéger au travers des référentiels associés. Son stockage sera banalisé dans le cloud, répliqué n fois, son empreinte sera archivée chez un tiers de manière probatoire. Rien ne sera statique dans le système d’information pour les données actives. Rendez-vous en 2022 !

    Philippe Goupil

    Expert en transformation numérique, Montréal
    philippegoupil@objectif-data.com.

     

    Cet article vous intéresse? Retrouvez-le en intégralité dans le magazine Archimag !

    archimag-303
    Les données ouvertes sont un fait. Des données à qualifier, conserver, communiquer : typiquement du travail pour les archivistes ! Pourtant l’implication de ces professionnels dans les projets open data n’a encore rien d’évident.
    Acheter ce numéro  ou  Abonnez-vous

    À lire sur Archimag

    Le Mag

    Tout Archimag, à partir de 9,50 €
    tous les mois.

    Le chiffre du jour

    4,5
    C'est le nombre de fichiers sources uniques proposés par l'archive Software Heritage.

    Recevez l'essentiel de l'actu !