Composants Logpickr
Logpickr Sink
Un connecteur sink est chargé de transférer des données depuis Kafka vers un autre système. Ici l'autre système correspond à L'API Logpickr.
Le principe du connecteur est de récupérer des données au format AVRO provenants d'un topic Kafka et de les écrire sur un fichier qui est ensuite envoyé à l'API Logpickr.
Le fichier CSV ayant un format adapté au Column Mapping du projet, les données reçues peuvent alors être analysées et présentées par l'outil Process Explorer 360.
Le connecteur peut aussi créer un Column Mapping pour le projet Logpickr, si ce dernier n'en a pas déjà un.
Logpickr Aggregator
Ce connecteur aggrège différentes lignes provenant de la même partition.
Il permet de découpler le flux continu de topics kafka en émission régulière d'un agrégat de données, selon diverses règles utilisateur.
Exemple: la donnée d'entrée est composée de deux colonnes de types :
LINE1 VARCHAR,
LINE2 VARCHAR
Le résultat de l'aggregation envoyé à kafka sera de type :
LINEAG ARRAY<STRUCT<LINE1 VARCHAR, LINE2 VARCHAR>>
User Defined Functions (UDF)
Les UDF sont des fonctions utilisables dans les transformations KSQLDB.
Transposition
nom ksqlDB : logpickr_transposition
UDTF transposant une ligne contenant des colonnes de dates associées à des activités, en plusieurs lignes contenant une date ( ou une période) associée à cette activité.
Case Events
nom ksqlDB : logpickr_case_events
UDF permettant de récupérer les informations associées à un CaseID existant
Sessions (Task Mining)
nom ksqlDB : logpickr_sessions
UDTF distribuant une collection de lignes en differentes sessions.
Utilisé en Task Mining, elle permet de générer des CaseIDs initialement absents, selon des critères définis par l'utilisateur.
Prediction
nom ksqlDB : logpickr_prediction
UDF récupérant des predictions pour des caseIds donnés d'un projet Logpickr.