Configuration du moteur Validate Address Loqate |
Pour définir les configurations pour réaliser des validations :
- Verbose
- Outil Infos
- Format d'adresse de sortie
- Entrée de journal
- Sortie de journal
- Nom du fichier journal
- Seuil absolu du score de correspondance
- Facteur de seuil du score de correspondance
- Nombre maximal de résultats de codes postaux
- Correspondance de référence stricte
|
Configuration de Validate Address Loqate Validate |
Pour configurer ces paramètres pour l’entrée :
- Inclusion d'une adresse standard
- Inclusion des éléments d'adresse en correspondance
- Éléments d'adresse d'entrée normalisés
- Renvoi de blocs de données d'adresse
- Casse de sortie
- Inclusion de codes de résultat pour les champs individuels
- Renvoi de plusieurs adresses
- Échec en cas de correspondances multiples trouvées
- Nombre d'adresses multiples
- Format de pays
- Pays par défaut
- Alphabet du script
- Renvoi des champs d'adresse géocodée
- Niveau d'acceptation
- Score de correspondance minimal
- Formatage des données à l'aide des conventions AMAS
- Gestion des doublons
- Gestion des doublons de champ unique
- Gestion des doublons de champs multiples
- Gestion des doublons de champs non standard
- Gestion des doublons de champs de sortie
|
Configuration générale Validate Address Loqate |
Pour définir des configurations JVM :
- Objets inactifs maximaux
- Objets inactifs minimaux
- Objets actifs maximaux
- Délai d’attente maximal
- Action lorsque épuisé
- Test sur emprunt
- Test sur retour
- Test quand inactif
- Temps entre les exécutions d’éviction en millisecondes
- Nombre de tests par exécution d'éviction
- Temps d’inactivité mini. avant éviction en millisecondes
|
Reference Data Path |
Spécifier les détails du chemin d'accès aux données de référence. Remarque : Pour les jobs UAM, les données de référence doivent être placées uniquement sur des nœuds de données locaux du cluster.
|
Configurations des jobs |
Configurations Hadoop du job. Pour un job MapReduce, l’instance doit être de type MRJobConfig. Pour un job Spark, l’instance doit être de type SparkJobConfig.
|
Fichier d'entrée |
Pour les fichiers texte :
- Chemin d'accès au fichier
- Chemin d'accès au fichier texte d'entrée sur la plate-forme Hadoop.
- Record Separator
- Séparateur d'enregistrements utilisé dans le fichier d'entrée.
- Field Separator
- Séparateur utilisé entre deux champs consécutifs d'un enregistrement dans le fichier d'entrée.
- Qualificateur de texte
- Le caractère utilisé pour entourer les valeurs de texte dans un fichier délimité.
- Header Row Fields
- Série de champs d'en-tête du fichier d'entrée.
- Skip First Row
- Indicateur spécifiant si la première ligne doit être ignorée lors de la lecture des enregistrements du fichier d'entrée.
Cette option doit être définie sur true au cas où la première ligne est une ligne d'en-tête.
Avertissement : Appelez le constructeur approprié deFilePath .
Pour les fichiers de format ORC :
- Chemin d'accès au fichier ORC
- Chemin d'accès au fichier de format ORC d'entrée sur la plate-forme Hadoop.
Paramètres communs :
- Rapprochements de champs
- Carte de paires clé/valeur, avec les noms de colonne existante comme clés et les noms de colonne de sortie souhaitée comme valeurs.
|
Fichier de sortie |
Pour les fichiers texte :
- Chemin d'accès au fichier
- Chemin d'accès au fichier texte de sortie sur la plate-forme Hadoop.
- Field Separator
- Séparateur utilisé entre deux champs consécutifs d'un enregistrement dans le fichier de sortie.
Avertissement : Appelez le constructeur approprié deFilePath .
Pour les fichiers de format ORC :
- Chemin d'accès au fichier ORC
- Chemin d'accès au fichier de format ORC de sortie sur la plate-forme Hadoop.
Paramètres communs :
- Écraser
- Indicateur spécifiant si le fichier de sortie doit écraser tout fichier existant du même nom.
- Create Output Header
- Indicateur spécifiant si le fichier d'en-tête doit être créé ou non sur le serveur Hadoop.
|
Nom du job |
Nom du job. |