Server
Betriebssysteme
Unterstütztes Betriebssystem | Hinweise |
---|---|
Windows Server 2012 |
|
Windows Server 2012 R2 | |
Windows Server 2016 |
Nicht unterstützte Betriebssysteme nach Modul
Alle Module unterstützen die Windows-Betriebssysteme, die im vorherigen Abschnitt aufgeführt sind.
Festplattenspeicher
Neue Installation | Aktualisierung |
---|---|
|
|
Arbeitsspeicher
- Grundlegender Arbeitsspeicherbedarf: 16 GB
- Für das Data Normalization-Modul und das Universal Name-Modul ist zusätzlicher Arbeitsspeicher erforderlich, wenn Sie die Datenbanken mit folgenden Namen verwenden:
- Arabic Plus Pack: 5,5 GB
- Asian Plus Pack: Chinesisch: 32 MB
- Asian Plus Pack: Japanisch: 1,6 GB
- Asian Plus Pack: Koreanisch: 8 MB
- Core Names: 1,1 GB
-
Der Arbeitsspeicherbedarf für das Machine Learning-Modul beträgt mindestens 1 GB RAM. Die Zuweisung (Java-Prozess – JVM-Speicher) sollte drei bis vier Mal größer als die Eingabedatei sein, die für Aufträge zur Erstellung von Modellen verwendet wird.
Öffnen Sie zum Erhöhen des JVM-Speichers des Machine Learning-Moduls die Datei %install_home%\server\modules\machinelearning\java.vmargs und stellen Sie die Parameter -Xmx und -Xms so ein, dass -Xmx drei bis vier Mal so groß wie die Eingabedatei ist, die in Aufträgen zur Erstellung von Modellen verwendet wird. Zum Beispiel:
-Xmsdefinitionm -Xmxdefinitiong
Zusätzliche Anforderungen
- Für die Installation von Spectrum™ Technology Platform sind Windows-Administratorrechte erforderlich.
- Damit die erweiterte Benachrichtigungsanwendung für die Taskleiste des Systems verwendet werden kann, muss auf dem Server .NET Framework ab Version 3.5 SP1 (auch bekannt als 3.5.1) installiert sein. Im Lieferumfang von aktuellen Windows Server-Versionen ist die erforderliche Version von .NET Framework enthalten.
Systemanforderungen für Enterprise Geocoding- und Global Geocoding-Module
- Systemanforderungen für das Enterprise Geocoding-Modul und das Global Geocoding-Modul:
- Minimum: 16 GB RAM, 4 CPU, 100 GB Speicherplatz
- Empfohlen: 32 GB RAM, 8 CPU, 200 GB Speicherplatz (ausreichend für alle Datasets).
Die RAM-Menge hängt davon ab, wie viele Benutzer sich im System befinden und wie viele Datasets geladen werden.
Anforderungen an das Big Data Integration-Modul
Bei den Schritten in Hadoop (nämlich Read from Hive File, Read from Hadoop Sequence, Write to Hadoop Sequence und Write to Hive File) und den Aktivitäten Run Hadoop MapReduce Job und Run Hadoop Pig:- Hadoop ab Version 2.6
- Spark ab Version 2.0.1