Utilisation d'un job Open Name Parser Spark

  1. Créez une instance de UniversalNameFactory à l'aide de sa méthode statique getInstance().
  2. Fournissez les détails d'entrée et de sortie du job Open Name Parser en créant une instance de OpenNameParserDetail définissant ProcessType. L’instance doit utiliser le type SparkProcessType.
    1. Configurez les règles Open Name Parser en créant une instance de OpenNameParserConfiguration.
    2. Définissez les détails du type d'emplacement et du chemin d'accès des données de référence en créant une instance de ReferenceDataPath. Reportez-vous à la section Énumération ReferenceDataPathLocation.
    3. Créez une instance de OpenNameParserDetail en transmettant une instance de type JobConfig et les instances OpenNameParserConfiguration et ReferenceDataPath créées précédemment comme arguments à son constructeur.
      Le paramètre JobConfig doit être une instance de type SparkJobConfig.
    4. Définissez les détails du fichier d'entrée à l'aide du champ inputPath de l'instance OpenNameParserDetail.
      Pour un fichier d'entrée texte, créez une instance de FilePath avec les détails pertinents du fichier d'entrée en appelant le constructeur approprié. Pour un fichier d'entrée ORC, créez une instance de OrcFilePath avec le chemin d’accès au fichier d'entrée ORC comme argument.
    5. Définissez les détails du fichier de sortie à l'aide du champ outputPath de l'instance OpenNameParserDetail.
      Pour un fichier de sortie texte, créez une instance de FilePath avec les détails pertinents du fichier de sortie en appelant le constructeur approprié. Pour un fichier de sortie ORC, créez une instance de OrcFilePath avec le chemin d’accès au fichier de sortie ORC comme argument.
    6. Définissez le nom du job à l'aide du champ jobName de l'instance OpenNameParserDetail.
  3. Pour créer et exécuter le job Spark, utilisez l'instance de UniversalNameFactory précédemment créée pour appeler sa méthode runSparkJob(). Dans ce cas, transmettez l'instance ci-dessus de OpenNameParserDetail comme argument.
    La méthode runSparkJob() exécute le job et renvoie une Map des compteurs de reporting du job.
  4. Affichez les compteurs pour voir les statistiques de reporting du job.