- Le blog
L'objectif est de vulgariser certaines notions, décrire l'actualité des outils et acteurs du domaine du décisionnel (BI : Business Intelligence).
Ce site sert également de référence au projet R'QUID, qui a pour but de créer des outils, permettant un gain de temps sur les parties récurrentes ne représentant qu'un faible intérêt fonctionnel.
L'objectif étant de se concentrer sur la matière à forte valeur ajoutée, celle qui vous différencie des autres entreprises, voir de vos concurrents : votre métier !
- Le projet
L'objectif de R'QUID peut se résumer en 2 phrases :
- La loi de Pareto 80/20
- Norme plutôt que du code (même philosophie que RoR)
- La loi de Pareto 80/20
80% des besoins sont génériques et 20% sont spécifiques. Enregistrer des données clients, traiter un processus, vérifier un email ou un numéro de téléphone. Le socle technique est toujours identique.
Ces 80% de besoins demandent 20% d'effort, voir moins, là est l'objectif d'R'QUID !
Surtout que 80% de ces besoins sont les mêmes d'une entreprise à l'autre !
Le reste qui est spécifique est souvent plus complexe. Il porte l'intérêt fonctionnel pour l'utilisateur final et est lié à l'activité du client.
- Norme plutôt que du code
Afin de faciliter le traitement des données, la mise en place de norme permet un gain de temps que l'on ne perçoit pas toujours. Nommer ses champs DATE en DAT_champ par exemple permettra d'appliquer un comportement standard plutôt qu'un comportement spécifique à chaque données date. Ce n'est peut-être pas très parlant car ici le type de données peut être un critère, mais on peut étendre ce principe à n'importe quel besoin.
Les normes sont aussi importantes pour la compréhension, la maintenance et la reprise de code. Il arrive que des sociétés n'aient pas de normes. Nous vous en proposons donc une !
Qu'est-ce qu'un besoin standard ?
Le chargement d'un DatawareHouse à partir d'un système opérationnel afin de produire des reportings sur différents axes d'analyse.
Les traitements sont les suivants :
- Charger les données
- Vérifier le format des données
- Vérifier le référentiel des données : warning, rejet, recyclage
- Transformer la donnée d'un référentiel vers un autre
Quel processus adopter ?
Modélisation & Méta-données :
Le plus important est la donnée. Il faut stocker et documenter la donnée dans un endroit unique.
Par exemple en la modélisant dans PowerAMC. Cet outil de modélisation de données permet également d'ajouter de la méta-données (meta-data) et permet donc d'ajouter des attributs à la données.
Par exemple : un type de donnée supplémentaire, une règle de gestion associée, une version...
Quelle utilité, pour quel gain ?
N'avoir qu'une seule source offre de nombreux avantages. On peut par exemple générer du code sur tout le processus.
Exemple :
- A partir du modèle PowerAMC on peut générer une documentation Word du modèle. Un bout de code, un template suffit à générer une doc à jour, comprenant les méta-données insérées (ex. version de la modification, un libellé, une classe, règle de gestion, source de la donnée, groupe utilisateurs...)
- Générer les jobs standards ETL (avec DataStage par exemple). Charger, vérifier le format, gérer les référentiels, le traitement des rejets...
- A partir du modèle on peut générer via du code de l'API Bo (Business Objects), l'ensemble des objets, classes, indicateurs. Dans le cas contraire la tâche est fastidieuse et les divergences entre modèle physique de données et modèle contenu dans l'outil sont régulièrement présents.
Cela permet de garder une cohérence globale de la donnée et de propager à très faible coût sa mise à jour.