Aller au contenu

Composants Logpickr

Logpickr Sink

Un connecteur sink est chargé de transférer des données depuis Kafka vers un autre système. Ici l'autre système correspond à L'API Logpickr.

Le principe du connecteur est de récupérer des données au format AVRO provenants d'un topic Kafka et de les écrire sur un fichier qui est ensuite envoyé à l'API Logpickr.

Le fichier CSV ayant un format adapté au Column Mapping du projet, les données reçues peuvent alors être analysées et présentées par l'outil Process Explorer 360.

Le connecteur peut aussi créer un Column Mapping pour le projet Logpickr, si ce dernier n'en a pas déjà un.

Logpickr Aggregator

Ce connecteur aggrège différentes lignes provenant de la même partition.

Il permet de découpler le flux continu de topics kafka en émission régulière d'un agrégat de données, selon diverses règles utilisateur.

Exemple: la donnée d'entrée est composée de deux colonnes de types :

LINE1 VARCHAR, LINE2 VARCHAR

Le résultat de l'aggregation envoyé à kafka sera de type :

LINEAG ARRAY<STRUCT<LINE1 VARCHAR, LINE2 VARCHAR>>

Plus d'infos (en)

User Defined Functions (UDF)

Les UDF sont des fonctions utilisables dans les transformations KSQLDB.

Transposition

nom ksqlDB : logpickr_transposition

UDTF transposant une ligne contenant des colonnes de dates associées à des activités, en plusieurs lignes contenant une date ( ou une période) associée à cette activité.

Plus d'infos (en)

Case Events

nom ksqlDB : logpickr_case_events

UDF permettant de récupérer les informations associées à un CaseID existant

Plus d'infos (en)

Sessions (Task Mining)

nom ksqlDB : logpickr_sessions

UDTF distribuant une collection de lignes en differentes sessions.

Utilisé en Task Mining, elle permet de générer des CaseIDs initialement absents, selon des critères définis par l'utilisateur.

Plus d'infos (en)

Prediction

nom ksqlDB : logpickr_prediction

UDF récupérant des predictions pour des caseIds donnés d'un projet Logpickr.

Plus d'infos (en)