ITAM et données fiables

Introduction
La gestion des parcs informatiques, complexes et multifacettes, requiert une vision globale et des données fiables pour orienter efficacement les décisions. Dans cette optique, les gestionnaires IT ont besoin d’outils et de technologies capables de découvrir, d’inventorier un large éventail d’actifs informatiques, qu’il s’agisse des équipements physiques déployés sur site, des serveurs virtuels, du Cloud ou des applications accessibles en tant que service (SaaS). Cette vision hybride de l’informatique requiert une approche de la collecte des données de gouvernance à la fois solide et multidimensionnelle.
En lisant ce livre blanc, vous découvrirez comment élaborer une stratégie qui vous permettra de disposer de données fiables.
L’importance des données fiables
Les « données fiables » ou « de confiance » constituent le fondement de la gestion des actifs informatiques selon la norme ISO 19770-1 (2017), et sont définies comme suit : « Les données « dignes de confiance » sont des données exactes, complètes, pertinentes, facilement comprises, et accessibles par les utilisateurs autorisés pour accomplir une tâche. »
Cette définition reconnaît que même des données précises sont inutiles si elles ne sont pas compréhensibles et accessibles aux utilisateurs autorisés qui pourraient en avoir l’usage. Cela ouvre la possibilité de créer un modèle précis des actifs informatiques, accessible aussi aux parties prenantes externes à l’équipe ITAM. Si les décisions prises par les fonctions Sécurité, Achats, Opérations Informatiques, Finances et ITAM reposent sur les mêmes données de confiance, il ne fait aucun doute qu’elles seront plus pertinentes que si chacun travaille en utilisant ses propres outils.
Une approche unifiée de la collecte et de la gestion des données fiables s’impose en gouvernance IT, révélant la valeur du rôle de l’ITAM aux autres parties prenantes. Par exemple, le National Institute of Standards & Technology (NIST), l’agence de règlementation américaine, a publié le modèle détaillé d’un système ITAM dédié aux prestataires de services financiers, abordé sous l’angle de la cybersécurité.
Ce n’est qu’un exemple au sein d’une tendance générale observée dans le secteur de l’informatique en faveur de l’adoption d’une approche de la gouvernance IT basée sur une plateforme.
De la donnée,aux connaissances
À ce stade, il convient de noter que lorsqu’elle fait référence à des données « fiables », la norme suggère que les données soient converties en « connaissances ».
Qu’entend-on par-là ? Il est intéressant de se pencher sur la question par le biais d’une application pratique du parcours « Données –Information – Connaissances ».
De la donnée, aux connaissances Dans ce cadre, nous collectons des données brutes de différentes sources qui correspondent à des faits sans contexte ni structure. Notre objectif, conformément à la définition ISO relative aux données de confiance, est de recueillir des données complètes.
Le contexte et la structure sont obtenus en traitant ces « données » brutes et en les transformant en informations précises et disponibles. Le fait de structurer ces informations et d’en « tirer des leçons » conduit à des connaissances, c’est-à-dire une compréhension du parc informatique, pertinente pour les différentes parties prenantes.

Collecter et gérer des données fiables
De multiples parties prenantes peuvent bénéficier de la centralisation des données de confiance, tout en soulignant que ces mêmes parties prenantes utilisent généralement leurs propres outils de Collecter et gérer des données fiables Silos organisationnels découverte et d’inventaire pour créer leurs propres bases de données.
Résultat:
création et gestion de silos au sein des organisations.

Cette approche est inefficace tant sur le plan des coûts – plusieurs outils effectuent des tâches similaires – que de la rentabilité, dans la mesure où de nombreuses opérations sont doublonnées, qu’il s’agisse des tâches
IT ou du travail des employés. La solution consiste par conséquent à combiner et normaliser les sources de données pour générer des données riches qui peuvent être exploitées par l’ensemble des parties prenantes. Il convient dans cette optique de prendre les mesures suivantes.

Inclure les parties prenantes
Identifiez qui peut profiter des données fiables centralisées, et analysez l’approche actuelle de collecte, les informations et les connaissances nécessaires en vue d’atteindre les objectifs. Évaluez la façon dont ces parties prenantes envisagent de Inclure les parties prenantes satisfaire vos propres objectifs ITAM, et définissez la stratégie pour recruter les personnes qui adhèrent à vos méthodes de collecte des données de confiance.
Votre stratégie de collecte des données
Pour répondre efficacement aux besoins des parties prenantes, il est essentiel de collecter uniquement les données nécessaires. Cette démarche, complexe et risquée, doit viser à fournir une vision complète de l’environnement IT tout en respectant les réglementations en vigueur. Une collaboration étroite est requise pour définir les données utiles, leur fréquence de collecte et leur durée de conservation.
Intégrer les outils des parties prenantes
La prochaine étape consiste à intégrer les données, les informations et les connaissances issues des systèmes d’inventaire et de découverte en utilisant des interfaces API personnalisés pour une extraction en temps réel et un transfert dans une base de données centralisée. Les environnements IT hybrides modernes sont hautement diversifiés et ont besoin d’outils à la fois flexibles et faciles à intégrer face à l’essor du Cloud, et au Shadow IT, ainsi qu’à l’approche BYOA (Bring Your Own Assets). Il ne s’agit plus seulement de gérer des terminaux mobiles personnels. En effet, les employés utiliseront leurs propres applications et, compte tenu du développement du télétravail, se serviront à un moment ou à un autre de leur ordinateur portable personnel et très certainement, de leur connexion réseau domestique.
Normaliser les données
Pour l’instant, dans le cadre du parcours qui nous mène au données de confiance, nous disposons de multiples flux de données non structurées issues des systèmes des parties prenantes. Il importe à présent d’évaluer la qualité de ces données et de les normaliser.
La normalisation est un processus progressif qui nettoie et identifie systématiquement les données tout en normalisant les informations conservées. Il est indispensable que votre outil de gestion des actifs logiciels (SAM) intègre une fonction de normalisation pour automatiser l’exécution de ces tâches manuelles.
Au sein des grandes entreprises, les services en charge de la gestion des actifs logiciels doivent traiter d’importants volumes de données d’inventaire et d'achats, lesquelles doivent être identifiées et rapprochées régulièrement ; à ce titre, une méthode automatisée est indispensable pour vérifier la fiablité des données, qu'un outil SAM permet de normaliser en cinq étapes clés:
→ filtrage
→ standardisation
→ transparence
→ traçabilité
→ évolutivité

USU standardisation des données

C’est ce que vous faites des données renvoyées par ces connecteurs qui apportera une réelle valeur ajoutée – et c’est là qu’un fournisseur de solutions comme USU entre en jeu.
Des solutions ITAM telles que USU Software Asset Management se chargent de cette normalisation en s’appuyant sur des jeux de règles hautement spécialisés et des bibliothèques de reconnaissance des actifs.
Les jeux de règles de normalisation sont indispensables pour créer et gérer des données fiables ; c’est un domaine de différenciation majeur entre les fournisseurs d’outils et les fournisseurs de solutions.
Les outils d’inventaire et de découverte ont tendance à être relativement «génériques », dans la mesure où ils s’appuient sur l’instrumentation fournie par l’actif sous-jacent – par exemple, WMI pour les terminaux Windows, SSH pour *nix, la connectivité API pour les infrastructures et les logiciels en tant que service (IaaS et SaaS).
Gestion des accès
À la normalisation des données s’ajoute la responsabilité de veiller à ce que leur accès soit géré de façon appropriée. Les données associées à vos actifs sont sensibles, car elles fournissent une vue extrêmement détaillée de votre parc informatique – un parc qui s’impose comme un véritable moteur de création de valeur.
Les données personnelles doivent être protégées contre tout accès illicite, tout en restant accessibles aux parties prenantes autorisées via des contrôles d’accès définis avec des experts et des outils assurant une gestion granulaire des droits.
Présentation des résultats
Les données doivent être présentées de façon claire et pertinente. Pour les parties prenantes, il est essentiel qu’elles soient contextualisées dans un cadre qui leur est familier, ce qui implique l’utilisation d’un outil adaptable aux différents besoins.
Chaque outil dispose généralement d’une fonction de reporting élémentaire. Votre outil SAM permet de configurer des rapports, ainsi que d’accéder à des modèles préconfigurés qui vous feront gagner du temps, à des indicateurs de performance clé intégrés et à des tableaux de bord personnalisables. Parmi les autres caractéristiques essentielles figure une option d’exportation automatique qui permet d’envoyer des rapports par e-mail ou de se connecter à des outils tiers comme Tableau, PowerBI et BusinessObjects.
Les solutions SAM telles que USU Software Asset Management disposent de fonctionnalités d’analyse métier mais il reste important de pouvoir partager des données avec les parties prenantes en toute sécurité.
Risques inhérents à l’utilisationde données non fiables
Des données inexactes, obsolètes ou incomplètes sont à l’origine de mauvaises décisions et de risques accrus. Prenons l’exemple d’un « angle mort » dont vous ignorez l’existence sur votre réseau, par exemple celui qui a entraîné la fuite de plus de 150 millions de dossiers de clients d’Equifax sur une période de 3 mois
en 2017. Cette société de crédit à la consommation a estimé en 2019 que cette faille lui a coûté plus d’un milliard de dollars.
Ce que vous ignorez totalement est souvent bien plus risqué que les angles morts déjà identifiés, même si vous avez mis en place des mesures d’atténuation. Il peut arriver que le déploiement d’outils de découverte et d’inventaire soit impossible dans des environnements sensibles ou à connectivité restreinte.
Lorsqu’il s’agit d’évaluer les risques liés à la gestion des licences dans ces contextes, disposer simplement du nombre de terminaux déployés peut parfois suffire. Mais alors, comment évaluer la qualité de ces données, et quelles actions mettre en place pour l’améliorer ?
Créer des données de qualité
Les données, ainsi que les connaissances qui en découlent, représentent un actif. Et ces actifs ont un cycle de vie.

Les gestionnaires d’actifs peuvent utiliser ce cycle de vie pour améliorer la qualité des données – en collectant les bonnes, en les enrichissant grâce à des informations contextuelles provenant d’autres sources, y donnant accès ou en les partageant.
Leur gestion (maintenance) est également primordiale, en particulier dans les environnements informatiques de nouvelle génération dont l’évolution rapide se compte en heures ou en jours, et non plus en mois ou années. Lorsque les données sont périmées, redondantes ou inutiles, il est important de s’assurer qu’elles sont éliminées correctement afin de ne pas les gérer à fonds perdu.
Les six mesures de qualité des données
Âge
Exhaustivité
Confiance
Disponibilité
Délai de valorisation des données
Cohérence
Utiliser des données de confiance pour atteindre les objectifs métiers
Nous venons d'évoquer les stratégies et les méthodes permettant de créer un référentiel complet, accessible, sécurisé et précis des données de confiance. Mais que pouvons-nous en faire?
En tant que gestionnaires d’actifs informatiques, nous nous concentrons essentiellement sur la gestion des coûts et des risques. Dans la section suivante, nous allons étudier un scénario où l’utilisation de données de confiance aboutit à un résultat positif.
Scénario : optimiser le coût de Microsoft 365
Microsoft 365 est une suite d’applications bureautiques et de collaboration hybride souvent utilisée sous licence individuelle, même si des licences par user sont également proposées pour certains déploiements. De même, les licences perpétuelles sont encore disponibles dans certains cas. La suite Microsoft365 est disponible pour Windows, Apple, iOS et Android. Au total, 8 éditions professionnelles sont commercialisées, ainsi que cinq packs d’accessoires avec fonctionnalités de sécurité et de conformité accrues.
Microsoft propose d’autres éditions à l’attention des particuliers, des administrations et des universités. Pour plus de détails sur toutes les éditions disponibles, cliquez ici.
On le voit, acheter un produit Microsoft 365 est une tâche complexe, ce qui en fait un produit dont l’optimisation par les responsables ITAM est compliquée. Par où commencer ?
Une approche hybride de la collecte des données nécessaires pour optimiser le déploiement de la suite Microsoft 365 constitue la solution idéale.
Source de données
Les sources de données suivantes sont adaptées à l’optimisation Microsoft365
→ Agent d’inventaire des outils ITAM
→ Annuaire Active Directory ou annuaire d’utilisateurs similaire
→ API/Console d’administration M365
→ Données sur les droits relatifs aux licences et aux abonnements
Parties prenantes
L’optimisation à grande échelle des logiciels utilisateur nécessite une interaction avec plusieurs parties prenantes et leurs systèmes, par exemple :
→ Assistance (Service Desk)
→ Systèmes informatiques de l’utilisateur
→ Gestion des actifs informatiques
→ Gestion des identités et des accès
→ Ressources humaines
Le processus d’optimisation
Pour optimiser Microsoft365, nous devons connaître les éléments suivants :
→ quelle édition est attribuée à l’utilisateur ?
→ est-ce que l’utilisateur est un employé actif ?
→ quelles fonctionnalités utilise-t-il ?
→ où les utilise-t-il ? Avec combien d’appareils ?
→ droits d’abonnement et de licence
→ dates de renouvellement
→ tarif
Toutes ces données nous permettent de déterminer, le cas échéant, de quelle édition les utilisateurs ont a besoin. Par exemple, il est possible de découvrir ceux disposent d’un abonnement alors qu’ils ont quitté l’entreprise en croisant les données de la console d’administration Microsoft365 ou de l’API avec les celles fournies par les systèmes de gestion des identités et des accès ou les systèmes RH. Par ailleurs les outils de gestion SaaS permettent d’identifier les utilisateurs disposant d’abonnements trop coûteux en analysant l’usage réel des fonctionnalités
Cet exercice produit une liste d’utilisateurs et de recommandations d’abonnement, utile au Service Desk ou aux équipes administratives pour ajuster ou redistribuer les abonnements selon les besoins des utilisateurs. Il faut aussi considérer la complexité du parc Microsoft 365, amplifiée par les différents niveaux d’abonnement et les anciens droits de licence perpétuels. Quelle est alors la solution ?
Automatisation et Machine Learning
Les jeux de règles complexes représentent une opportunité intéressante pour l’automatisation et l’apprentissage automatique (ML). En effet, le Machine Learning exploite d’importants volumes de données fiables pour « comprendre » les scénarios et prendre des mesures appropriées. Grâce à cette technologie, les outils ITAM avancés peuvent recommander des possibilités d’optimisation – dans le cas de Microsoft 365, il s ’agit d’identifier l’abonnement adapté à l’utilisateur.
En outre, si nous faisons confiance aux données, au ML et aux jeux de règles configurés dans notre outil ITAM, nous pouvons automatiser le processus d’attribution des abonnements. C'est essentiel pour accélérer le déploiement des logiciels, comme en témoignent les difficultés rencontrées par les responsables ITAM lors de la redistribution manuelle des licences perpétuelles inutilisées.
Résultat
Des données de confiance ont permis d’optimiser l’attribution des licences et des abonnements au sein du parc Microsoft365. Les utilisateurs disposent des outils nécessaires pour accomplir leur travail, le gaspillage est minimisé et les coûts sont optimisés. Grâce à l’apprentissage automatique et à l’automatisation, ce processus se déroule de manière continue avec une incidence minimale au niveau des employés.
Conclusion
Des données de confiance au service de la stratégie IT
Les données de confiance sont au cœur de la gouvernance informatique des entreprises. Il est impossible de gérer ce
que l’on ne peut pas voir, et encore moins de l’administrer. Les gestionnaires d’actifs IT ne sont qu’un exemple parmi d’autres des acteurs qui tirent profit de données de qualité. Grâce à notre approche globale de la gestion des actifs IT et à notre exigence en matière de données, nous disposons d’une base solide pour mettre en œuvre une stratégie de gouvernance efficace.
En d’autres termes, une solution SAM capable d’extraire des données de haute qualité issues de plusieurs sources représente un outil indispensable pour la rentabilité de votre organisation. À mesure que nos parcs informatiques gagnent en complexité, se diversifient, et où des parties prenantes toujours plus nombreuses sont chargées d’exécuter des fonctions clés en notre nom, il est essentiel de disposer des données nécessaires pour les gouverner. En faisant en sorte que des données riches et fiables soient mises à la disposition des parties prenantes autorisées en fonction de leurs besoins, nous élevons le niveau de la gouvernance informatique à tous les niveaux de l’entreprise.
Contactez un expert
Vous avez des questions sur notre offre ? Discutez avec un de nos experts pour découvrir comment notre solution ITAM optimise la gestion de vos licences, contrats et dépenses logicielles.

Samba Sylla
Sales Development Manager
IT Asset Management
Envoyez un message
Vous souhaitez devenir partenaire ou poser vos questions ? C'est ici !



