Introduction

SDK qualité des Big Data vous permet de créer, de configurer et d'exécuter des jobs MapReduce, des jobs Spark et des fonctions définies par l'utilisateur Hive pour des opérations Data Quality sur une plate-forme Hadoop.

Grâce au SDK, vous pouvez créer et exécuter des jobs directement sur une plate-forme Hadoop. Vous pouvez ainsi supprimer les délais réseau et exécuter les processus Data Quality distribués en cluster, ce qui a pour effet d'améliorer radicalement les performances.

Les modules pris en charge par SDK qualité des Big Data sont les suivants :
  1. Module Advanced Matching
  2. Module Data Normalization
  3. Module Universal Name
  4. Module Universal Addressing

SDK Usage

Ce SDK peut actuellement être utilisé via :
  1. API Java : prennent en charge MapReduce et Spark
  2. Fonctions Hive définies par l'utilisateur