Article réservé aux abonnés Archimag.com

Gestion de contenu : évolution du marché et perspectives pour 2020

  • gestioncontenu_riviere.jpg

    gestion-contenu-ECM
    "Les algorithmes réussiront-ils là où les générations précédentes d’outils ont échoué ? En tout cas, un bon nombre d’entraves devraient tomber et des progrès devraient voir le jour prochainement". (Freepik)
  • Entre la Ged collaborative et les « plateformes de service », la gestion de contenu a-t-elle encore toute sa pertinence ? Ne faudrait-il pas compter sur l’intelligence artificielle pour apporter aux systèmes de gestion de l’information de nouveaux progrès dans les services rendus aux utilisateurs et aux entreprises ? Au-delà des concepts, les indicateurs du marché affichent toujours une évolution et des perspectives positives. Des éditeurs en solutions d’ECM et un intégrateur témoignent. Retour d’expérience chez SNCF Réseau.

    Sommaire du dossier :

    Avec un montant qui dépasse les 2,4 milliards d’euros, le marché français des solutions de gestion des processus documentaires se porte bien. D’autant plus qu’il devrait encore afficher des résultats à la hausse au moins jusqu’en 2020. Autre bonne nouvelle pour le secteur : l’intelligence artificielle va stimuler la production d’outils encore plus performants. « Avec l’IA, il s’agit de tirer parti des algorithmes qui offrent des capacités d’analyse des données (par exemple pour détecter et contrer la fraude documentaire) ou permettent l’automatisation de tâches relatives au traitement des documents, tâches manuelles, répétitives et sans valeur ajoutée pour ceux qui les exécutent », souligne le cabinet Markess.

    >Lire aussi : Choisir son logiciel de Ged, d'ECM ou de records management en 8 points clés

    Cela fait désormais plusieurs années que les éditeurs intègrent une composante IA dans leurs solutions. Ils ont en effet reçu 5 sur 5 les plaintes et les doléances des utilisateurs : à les écouter, il est toujours aussi difficile — voire impossible — de trouver une information noyée dans des corpus documentaires de plus en plus obèses. Selon une estimation réalisée en 2017 par l’Association information et management (AIM), le temps passé à la recherche d’informations s’élève à… 7 heures 30 minutes par semaine. Presque une journée d’activité ! Et cela a un coût : plus de 4 000 euros par an pour les entreprises.

    Aller plus loin que la simple localisation des informations

    Même si ces chiffres peuvent être contestés, il n’en témoignent pas moins d’un réel problème d’accès à l’information dans les organisations. L’éditeur finlandais M-Files l’a bien compris et mise résolument sur l’IA afin d’aider les entreprises à mieux exploiter leur patrimoine documentaire : « Les métadonnées, mais également l’intelligence artificielle ou encore le machine learning aideront à qualifier et à indiquer la nature des informations, en allant plus loin que simplement montrer leur localisation ».

    Pour y parvenir, M-Files a procédé en 2017 au rachat du canadien Apprento spécialisé dans l’IA et le traitement du langage naturel. Objectif : obtenir automatiquement des informations provenant de contenus non structurés et optimiser les processus de classement, de traitement et de sécurisation des données de l’entreprise. Et à partir des informations collectées, le logiciel sera capable de générer des synthèses. 

    Accéder aux « données critiques » de l’entreprise

    Les algorithmes réussiront-ils là où les générations précédentes d’outils ont échoué ? En tout cas, un bon nombre d’entraves devraient tomber et des progrès devraient voir le jour prochainement :
        •    les solutions seront désormais capables de travailler avec tous les types d’information quel que soit leur emplacement ;
        •    une même information pourra être consultée grâce à différents critères et il ne sera alors plus nécessaire de la dupliquer ;
        •    les risques de perte d’information seront réduits ;
        •    les « données critiques » des organisations devraient être mises en lumière ;
        •    et dans un contexte régi par le RGPD (Règlement général sur la protection des données), la mise en conformité des informations relatives aux clients sera facilitée.

    Déjouer les pièges de l'ambigüité

    Dans les faits, comment ces algorithmes facilitent-ils l’accès à l’information ? Lors de l’édition 2018 du salon Documation, un éditeur rapportait le cas d’une entreprise évoluant dans l’exploitation pétrolière et gazière. Les sites d’exploitation doivent être décommissionnés (démantelés) au bout d’une quinzaine d’années environ. Ce démantèlement doit être mené selon des normes très strictes qui s’appuient sur un corpus documentaire hétérogène : documents fonciers, documents produits par des géomètres et des géologues, rapports d’experts, etc. Cette documentation peut atteindre plusieurs millions de documents créés sur une quinzaine d’années pour les sites d’exploitation les plus importants. Autant dire que retrouver un document précis dans un tel volume revient à chercher une aiguille dans une botte de foin !

    L’intelligence artificielle a alors été utilisée puis entraînée afin d’identifier dans chaque type de document les informations les plus utiles. Son apport s’est révélé déterminant par rapport aux méthodes de recherche plein texte traditionnelles. Ainsi lors d’une requête portant, par exemple, sur une parcelle 3702, la recherche plein texte remontera la combinaison » 3702 » de façon indifférenciée qu’il s’agisse d’un numéro de facture ou de n’importe quel document portant le nombre 3702. L’IA parvient à déjouer ce type de confusion et à collecter uniquement les documents en lien avec la « parcelle 3702 ».

    L’intelligence artificielle peut également être utilisée dans des processus documentaires multimédias. Notamment lorsqu’il s’agit d’indexer une vidéo. L’IA procède à une description de l’image, bien sûr, mais aussi à la bande-son qui l’accompagne. La société Orkis, spécialisée dans les solutions dédiées à la gestion des photothèques et des vidéothèques numériques, s’est rapprochée de laboratoires travaillant dans le traitement du langage naturel. Résultat : les vidéos sont indexées sur la base de la bande-son. Mieux, l’IA attribue un « score de confiance » à la transcription automatique lorsqu’une ambigüité demeure. En fonction de ce score de confiance, l’humain peut valider, ou au contraire modifier, la transcription. Au final, l’IA tient compte de cette validation humaine pour améliorer ses performances.

    IA-ECM, un couple fait pour durer

    Pour d’autres éditeurs, le couple IA-ECM est amené à durer : « La numérisation de l'information est à la base du fonctionnement de l'intelligence artificielle », explique Morad Rhlid (SER Group) ; « grâce à des technologies telles que l'industrie 4.0 et l'internet des objets, nous produisons de plus en plus de données. Il sera donc nécessaire de s'appuyer sur un logiciel contextuel capable de gérer et de stocker de gros volumes de données. C'est là que l'ECM prend tout son sens ». En effet, selon certaines estimations, le volume global de données passera de 4,4 zettaoctets à 44 zettaoctets d’ici 2020.

    Aux yeux de Morad Rhild, seule l’IA pourra nous venir en aide : « Nous serons alors en mesure de poser des questions et d'interagir avec un ordinateur et une intelligence artificielle. Les objets connectés pourront de leur côté traiter des masses d'informations nous concernant et les envoyer par exemple aux assureurs. Tout cela sera rendu possible grâce à un référentiel ECM de qualité. L’intelligence artificielle permettra aussi de franchir de nouveaux caps dans des domaines comme la santé, les transports ou l'éducation. Elle relèvera des défis complexes tels que le contrôle et le traitement des langues, par exemple. Mais pour remplir ces promesses, l'IA devra analyser de très gros volumes de données ».

    Pour autant, l’IA n’est pas encore en mesure de résoudre tous les problèmes liés à la gestion de contenu. Malgré ses progrès fulgurants, elle doit encore être validée par des êtres humains et faire preuve de fiabilité. Comme le remarque un observateur avisé du marché, « une IA performante est une IA transparente »...

    Cet article vous intéresse? Retrouvez-le en intégralité dans le magazine Archimag !
    Archimag n°322
    Entre la Ged collaborative et les « plateformes de service », la gestion de contenu a-t-elle encore toute sa pertinence ? Ne faudrait-il pas compter sur l’intelligence artificielle pour apporter aux systèmes de gestion de l’information de nouveaux progrès…
    Acheter ce numéro  ou  Abonnez-vous
    À lire sur Archimag
    Les podcasts d'Archimag
    Pour cet épisode spécial Documation, nous nous sommes penchés sur une autre grande tendance de l'année 2024 : la cybersécurité, et plus particulièrement la sécurité dans le domaine de la gestion des données. La protection des données contre les menaces internes et externes est non seulement cruciale pour garantir la confidentialité, l'intégrité et la disponibilité des données, mais aussi pour maintenir la confiance des clients. Julien Baudry, directeur du développement chez Doxallia, Christophe Bastard, directeur marketing chez Efalia, et Olivier Rajzman, directeur commercial de DocuWare France, nous apportent leurs éclairages sur le sujet.
    Publicité

    supplement-confiance-numerique-270500.png