Konfigurieren von Knotenspeichern und Datenspeichern in AEM 6 configuring-node-stores-and-data-stores-in-aem

Einführung introduction

In Adobe Experience Manager (AEM) können Binärdaten unabhängig von den Inhaltsknoten gespeichert werden. Die Binärdaten werden in einem Datenspeicher gespeichert, während Inhaltsknoten in einem Knotenspeicher gespeichert werden.

Sowohl Datenspeicher als auch Knotenspeicher können mit der OSGi-Konfiguration konfiguriert werden. Jede OSGi-Konfiguration wird mithilfe einer persistenten Kennung (PID) referenziert.

Konfigurationsschritte configuration-steps

Führen Sie die folgenden Schritte aus, um sowohl den Knotenspeicher als auch den Datenspeicher zu konfigurieren:

  1. Kopieren Sie die AEM-Schnellstart-JAR-Datei in das Installationsverzeichnis.

  2. Erstellen Sie einen Ordner crx-quickstart/install im Installationsverzeichnis.

  3. Konfigurieren Sie zunächst den Knotenspeicher, indem Sie eine Konfigurationsdatei mit dem Namen der zu verwendenden Knotenspeicher-Option im Verzeichnis crx-quickstart/install erstellen.

    Der Knotenspeicher „Dokument“ (die Basis der AEM-MongoMK-Implementierung) nutzt etwa die Datei org.apache.jackrabbit.oak.plugins.document.DocumentNodeStoreService.config.

  4. Bearbeiten Sie die Datei und legen Sie die Konfigurationsoptionen fest.

  5. Erstellen Sie eine Konfigurationsdatei mit der PID des Datenspeichers, den Sie verwenden möchten. Bearbeiten Sie die Datei, um die Konfigurationsoptionen festzulegen.

    note note
    NOTE
    Weitere Informationen zu Konfigurationsoptionen finden Sie unter Knotenspeicher-Konfigurationen und Datenspeicher-Konfigurationen.
  6. Starten Sie AEM.

Knotenspeicher-Konfigurationen node-store-configurations

CAUTION
Neuere Versionen von Oak nutzen ein neues Benennungsschema und Format für OSGi-Konfigurationsdateien. Das neue Benennungsschema setzt voraus, dass die Konfigurationsdatei mit .config benannt wird. Das neue Format erfordert die Eingabe von Werten und ist hier dokumentiert.
Wenn Sie von einer älteren Oak-Version aktualisieren, stellen Sie sicher, dass Sie zunächst den Ordner crx-quickstart/install sichern. Stellen Sie nach dem Upgrade den Inhalt des Ordners in der aktualisierten Installation wieder her und ändern Sie die Erweiterung der Konfigurationsdateien von .cfg zu .config.
Sollten Sie diesen Artikel zur Vorbereitung auf ein Upgrade von einer AEM 5.x-Installation lesen, denken Sie daran, sich zuerst mit der Dokumentation zu Upgrades vertraut zu machen.

Segmentknotenspeicher segment-node-store

Der Segmentknotenspeicher ist die Grundlage für die Adobe-AEM6-TarMK-Implementierung. Zur Konfiguration wird die PID org.apache.jackrabbit.oak.segment.SegmentNodeStoreService verwendet.

CAUTION
Die PID für den Segment-Knotenspeicher hat sich von org.apache.jackrabbit.oak.plugins.segment.SegmentNodeStoreService in previous versions in AEM 6 zu org.apache.jackrabbit.oak.segment.SegmentNodeStoreService in AEM 6.3 geändert. Stellen Sie sicher, dass Sie die erforderlichen Konfigurationsanpassungen vornehmen, um diese Änderung widerzuspiegeln.

Sie können die folgenden Optionen konfigurieren:

  • repository.home: Pfad zum Repository-Stammverzeichnis, in dem Repository-bezogene Daten gespeichert werden. Standardmäßig werden Segmentdateien im Verzeichnis crx-quickstart/segmentstore gespeichert.

  • tarmk.size: Maximale Größe eines Segments in MB. Der standardmäßige Maximalwert lautet 256 MB.

  • customBlobStore: Boolescher Wert, der angibt, dass ein benutzerdefinierter Datenspeicher verwendet wird. Der Standardwert ist „true“ für AEM 6.3 und höhere Versionen. Vor AEM 6.3 war die Standardeinstellung „false“.

Es folgt eine Beispieldatei für org.apache.jackrabbit.oak.segment.SegmentNodeStoreService.config:

#Path to repo
repository.home="crx-quickstart/repository"

#Max segment size
tarmk.size=I"256"

#Custom data store
customBlobStore=B"true"

Dokumentenknotenspeicher document-node-store

Der Dokumentenknotenspeicher bildet die Grundlage der AEM-MongoMK-Implementierung. Verwendet wird dabei die PID* *org.apache.jackrabbit.oak.plugins.document.DocumentNodeStoreService. Folgende Konfigurationsoptionen sind verfügbar:

  • mongouri: Die für die Verbindung zur Mongo-Datenbank erforderliche MongoURI. Standard: mongodb://localhost:27017

  • db: Name der Mongo-Datenbank. Der Standardwert ist Oak . However, new AEM 6 installations use **aem-author** als standardmäßigen Datenbanknamen.

  • cache: Cache-Größe in MB. Dieser Wert verteilt sich auf die verschiedenen in DocumentNodeStore verwendeten Caches. Standard: 256

  • changesSize: Größe (in MB) der begrenzten Sammlung, die in Mongo zum Zwischenspeichern unterschiedlicher Ausgaben verwendet wird. Standard: 256

  • customBlobStore: Boolescher Wert, der angibt, dass ein benutzerdefinierter Datenspeicher verwendet wird. Der Standardwert lautet false.

Es folgt eine Beispieldatei für org.apache.jackrabbit.oak.plugins.document.DocumentNodeStoreService.config:

#Mongo server details
mongouri="mongodb://localhost:27017"

#Name of Mongo database to use
db="aem-author"

#Store binaries in custom BlobStore
customBlobStore=B"false"

Datenspeicherkonfigurationen data-store-configurations

Muss eine große Anzahl von Binärdateien verarbeitet werden, wird empfohlen, statt der Standard-Knotenspeicher einen externen Datenspeicher zu verwenden, um die Leistung zu maximieren.

Wenn für Ihr Projekt z. B. eine große Anzahl von Medien-Assets erforderlich ist, können Sie diese im Datei- oder S3-Datenspeicher speichern und so schneller darauf zugreifen, als wenn Sie sie direkt in einer MongoDB speichern.

Der Dateidatenspeicher ist leistungsstärker als MongoDB. Die Sicherungs- und Wiederherstellungsvorgänge von Mongo sind bei einer großen Anzahl von Assets ebenfalls langsamer.

Details zu den verschiedenen Datenspeichern und Konfigurationen werden nachfolgend beschrieben.

NOTE
Um benutzerdefinierte Datenspeicher verwenden zu können, müssen Sie sicherstellen, dass customBlobStore in der entsprechenden Knotenspeicher-Konfigurationsdatei (Segmentknotenspeicher oder Dokumentenknotenspeicher) auf true gesetzt ist.

Dateidatenspeicher file-data-store

Hierbei handelt es sich um die FileDataStore-Implementierung in Jackrabbit 2, die es ermöglicht, dass Binärdaten wie normale Dateien im Dateisystem gespeichert werden. Verwendet wird dabei die PID org.apache.jackrabbit.oak.plugins.blob.datastore.FileDataStore.

Die folgenden Konfigurationsoptionen sind verfügbar:

  • repository.home: Pfad zum Repository-Stammverzeichnis, in dem diverse Repository-bezogene Daten gespeichert werden. Standardmäßig werden Binärdateien im Verzeichnis crx-quickstart/repository/datastore gespeichert.

  • path: Pfad zum Verzeichnis, unter dem Dateien gespeichert werden. Sofern angegeben, hat dieser Wert Vorrang gegenüber repository.home.

  • minRecordLength: Mindestgröße in Byte einer im Datenspeicher abgelegten Datei. Binärinhalte, die unterhalb dieses Werts liegen, werden als Inline-Elemente dargestellt.

NOTE
Wenn Sie einen NAS verwenden, um freigegebene Dateidatenspeicher zu speichern, stellen Sie sicher, dass Sie ausschließlich leistungsstarke Geräte verwenden, um Leistungsprobleme zu vermeiden.

Amazon S3-Datenspeicher amazon-s-data-store

AEM kann so konfiguriert werden, dass Daten im Simple Storage Service (S3) von Amazon gespeichert werden. Zur Konfiguration wird die PID org.apache.jackrabbit.oak.plugins.blob.datastore.S3DataStore.config verwendet.

NOTE
AEM 6.5 unterstützt das Speichern von Daten in Amazon S3. Die Unterstützung wird jedoch nicht auf das Speichern von Daten auf anderen Plattformen ausgeweitet, deren Anbieter möglicherweise eigene Implementierungen der Amazon S3-APIs haben.

Zur Aktivierung der S3-Datenspeicherfunktionalität muss ein Feature Pack mit dem S3-Datenspeicher-Connector heruntergeladen und installiert werden. Gehen Sie zum Adobe-Repository und laden Sie die neueste Version der 1.10.x-Versionen des Feature Packs herunter (z. B. com.adobe.granite.oak.s3connector-1.10.0.zip). Darüber hinaus müssen Sie auch das neueste AEM Service Pack herunterladen und installieren, das auf der Seite Versionshinweise zu AEM 6.5 aufgeführt ist.

NOTE
Bei Verwendung von AEM mit TarMK werden die Binärdateien standardmäßig im FileDataStore gespeichert. Um TarMK mit dem S3-Datenspeicher nutzen zu können, müssen Sie AEM mithilfe des Ausführungsmodus crx3tar-nofds starten, z. B.:
java -jar <aem-jar-file>.jar -r crx3tar-nofds

Nach dem Download können Sie den S3-Connector wie folgt installieren und konfigurieren:

  1. Extrahieren Sie den Inhalt der ZIP-Datei des Feature Packs in einen temporären Ordner.

  2. Wechseln Sie zum temporären Ordner und navigieren Sie zum folgenden Speicherort:

    code language-xml
    jcr_root/libs/system/install
    

    Kopieren Sie alle Inhalte vom oben genannten Speicherort nach <aem-install>/crx-quickstart/install.

  3. Wenn AEM bereits für Tar- oder MongoDB-Speicher konfiguriert ist, entfernen Sie etwaig vorhandene Konfigurationsdateien aus dem Ordner <aem-install>/crx-quickstart/install, bevor Sie fortfahren. Die folgenden Dateien müssen entfernt werden:

    • For MongoMK: org.apache.jackrabbit.oak.plugins.document.DocumentNodeStoreService.config
    • For TarMK: org.apache.jackrabbit.oak.segment.SegmentNodeStoreService.config
  4. Kehren Sie zum temporären Verzeichnis mit dem extrahierten Feature Pack zurück und kopieren Sie den Inhalt des folgenden Ordners:

    • jcr_root/libs/system/config

    in

    • <aem-install>/crx-quickstart/install

    Stellen Sie sicher, dass Sie nur die für die aktuelle Konfiguration benötigten Konfigurationsdateien kopieren. Kopieren Sie sowohl bei einem dedizierten Datenspeicher als auch bei einem freigegebenen Datenspeicher die Datei org.apache.jackrabbit.oak.plugins.blob.datastore.S3DataStore.config.

    note note
    NOTE
    Führen Sie beim Setup des Clusters die oben genannten Schritte für alle Knoten des Clusters einzeln durch. Stellen Sie außerdem sicher, dass Sie dieselben S3-Einstellungen für alle Knoten verwenden.
  5. Bearbeiten Sie die Datei und fügen Sie die für Ihre Einrichtung erforderlichen Konfigurationsoptionen hinzu.

  6. Starten Sie AEM.

Aktualisieren auf eine neue Version des 1.10.x S3-Connectors upgrading-to-a-new-version-of-the-s-connector

Wenn Sie auf eine neue Version des 1.10.x S3-Connectors aktualisieren (z. B. von 1.10.0 auf 1.10.4), führen Sie die folgenden Schritte aus:

  1. Halten Sie die AEM-Instanz an.

  2. Navigieren Sie im AEM-Installationsordner zu <aem-install>/crx-quickstart/install/15 und sichern Sie die dort vorhandenen Inhalte.

  3. Löschen Sie nach der Sicherung die alte Version des S3-Connectors und die entsprechenden abhängigen Elemente, indem Sie die JAR-Dateien aus dem Ordner <aem-install>/crx-quickstart/install/15 entfernen, z. B.:

    • oak-blob-cloud-1.6.1.jar
    • aws-java-sdk-osgi-1.10.76.jar
    note note
    NOTE
    Die oben aufgeführten Dateinamen dienen nur zu Veranschaulichungszwecken.
  4. Laden Sie die neueste Version des Feature Packs 1.10.x aus dem Adobe-Repository herunter.

  5. Entpacken Sie den Inhalt in einen anderen Ordner und navigieren Sie dann zu jcr_root/libs/system/install/15.

  6. Kopieren Sie die JAR-Dateien nach <aem-install>/crx-quickstart/install/15 im AEM-Installationsverzeichnis.

  7. Starten Sie AEM und überprüfen Sie die Funktionsweise des Connectors.

Sie können die Konfigurationsdatei mit den unten beschriebenen Optionen verwenden.

Dateioptionen für die S3-Connector-Konfiguration s3-connector-configuration-file-options

NOTE
Der S3-Connector unterstützt sowohl die IAM-Benutzerauthentifizierung als auch die IAM-Rollenauthentifizierung. Um die IAM-Rollenauthentifizierung zu verwenden, lassen Sie die Werte accessKey und secretKey aus Ihrer Konfigurationsdatei weg. Der S3-Connector wird dann standardmäßig auf die IAM-Rolle gesetzt, die der Instanz zugewiesen wurde.
Schlüssel
Beschreibung
Standard
Erforderlich
accessKey
Greifen Sie auf die Schlüssel-ID für den IAM-Benutzer zu, der Zugriff auf den Bucket hat.
Ja, wenn keine IAM-Rollen verwendet werden.
secretKey
Geheimer Zugriffsschlüssel für den IAM-Benutzer mit Zugriff auf den Bucket.
Ja, wenn keine IAM-Rollen verwendet werden.
cacheSize
Die Größe (in Byte) des lokalen Caches.
64 GB
Anzahl
connectionTimeout
Legen Sie die Wartezeit (in Millisekunden) bis zum Timeout beim erstmaligen Herstellen einer Verbindung fest.
10000
Anzahl
maxCachedBinarySize
Binärdateien mit einer Größe kleiner oder gleich diesem Wert (in Bytes) werden im Speichercache gespeichert.
17408 (17 KB)
Anzahl
maxConnections
Legen Sie die maximale Anzahl der zulässigen offenen HTTP-Verbindungen fest.
50
Anzahl
maxErrorRetry
Legen Sie die maximale Anzahl von Wiederholungsversuchen für fehlgeschlagene (wiederholbare) Anfragen fest.
3
Anzahl
minRecordLength
Die Mindestgröße eines Objekts (in Bytes), das im Datenspeicher gespeichert werden soll.
16384
Anzahl
path
Der lokale Pfad des AEM-Datenspeichers.
crx-quickstart/repository/datastore
Anzahl
proxyHost
Legen Sie den optionalen Proxy-Host fest, über den der Client eine Verbindung herstellen soll.
Anzahl
proxyPort
Legen Sie den optionalen Proxy-Port fest, über den der Client eine Verbindung herstellen soll.
Anzahl
s3Bucket
Name des S3-Buckets.
Ja
s3EndPoint
Endpunkt der S3 REST-API.
Anzahl
s3Region
Region, in der sich der Bucket befindet. Weitere Informationen finden Sie auf dieser Seite.
Region, in der die AWS-Instanz ausgeführt wird.
Anzahl
socketTimeout
Legen Sie die Wartezeit (in Millisekunden) für Daten fest, die über eine eingerichtete, offene Verbindung übertragen werden sollen, bevor die Verbindung unterbrochen und geschlossen wird.
50000
Anzahl
stagingPurgeInterval
Das Intervall (in Sekunden) zum endgültigen Löschen fertiggestellter Uploads aus dem Staging-Cache.
300
Anzahl
stagingRetryInterval
Das Intervall (in Sekunden) zum Wiederholen fehlgeschlagener Uploads.
600
Anzahl
stagingSplitPercentage
Der Prozentsatz von cacheSize zur Verwendung für das Staging asynchroner Uploads.
10
Anzahl
uploadThreads
Die Anzahl der Upload-Threads, die für asynchrone Uploads verwendet werden.
10
Anzahl
writeThreads
Die Anzahl der parallelen Threads, die zum Schreiben über S3 Transfer Manager verwendet werden.
10
Anzahl

Datenspeicher-Caching data-store-caching

NOTE
Die Datenspeicher-Implementierungen von S3DataStore, CachingFileDataStore und AzureDataStore unterstützen das Caching lokaler Dateisysteme. Die CachingFileDataStore-Implementierung ist nützlich, wenn sich der Datenspeicher auf NFS (Network File System) befindet.

Beim Upgrade von einer älteren Cache-Implementierung (vor Oak 1.6) gibt es einen Unterschied in der Struktur des Cache-Verzeichnisses des lokalen Dateisystems. In der alten Cachestruktur wurden sowohl die heruntergeladenen als auch die hochgeladenen Dateien direkt unter dem Cachepfad abgelegt. In der neuen Struktur werden Downloads und Uploads voneinander getrennt und in zwei Verzeichnissen namens upload und download unter dem Cachepfad gespeichert. Der Upgrade-Prozess sollte nahtlos sein und etwaige ausstehende Uploads sollten zum Hochladen geplant werden. Etwaige zuvor heruntergeladene Dateien werden bei Initialisierung im Cache abgelegt.

Sie können den Cache auch offline upgraden, indem Sie den Befehl datastorecacheupgrade von oak-run ausführen. Weitere Einzelheiten zum Ausführen des Befehls finden Sie in der Readme-Datei für das oak-run-Modul.

Der Cache hat eine Größenbeschränkung und kann mithilfe des cacheSize-Parameters konfiguriert werden.

Downloads downloads

Der lokale Cache wird auf die Aufzeichnung der Datei-/Blob-Anforderung geprüft, bevor ein Zugriff vom Datenspeicher erfolgt. Wenn der Cache das konfigurierte Limit (siehe Parameter cacheSize) überschreitet, während dem Cache eine Datei hinzugefügt wird, werden einige der Dateien entfernt, um Speicher freizugeben.

Asynchrone Uploads async-upload

Der Cache unterstützt asynchrone Uploads in den Datenspeicher. Die Dateien werden lokal im Cache (im Dateisystem) bereitgestellt und ein asynchroner Vorgang startet das Hochladen der Datei. Die Anzahl der asynchronen Uploads ist durch die Größe des Staging-Cache begrenzt. Die Größe des Staging-Cache wird mithilfe des stagingSplitPercentage-Parameters konfiguriert. Dieser Parameter definiert den Prozentsatz der Cachegröße, der für den Staging-Cache verwendet werden soll. Außerdem wird der Prozentsatz des für Downloads verfügbaren Cache wie folgt berechnet: (100 - stagingSplitPercentage) *cacheSize.

Asynchrone Uploads verlaufen in mehreren Threads und die Anzahl der Threads wird mithilfe des uploadThreads-Parameters konfiguriert.

Die Dateien werden nach Abschluss der Uploads in den Haupt-Download-Cache verschoben. Wenn die Größe des Staging-Cache die Grenze überschreitet, werden die Dateien synchron in den Datenspeicher hochgeladen, bis die vorherigen asynchronen Uploads abgeschlossen sind und wieder Speicherplatz im Staging-Cache verfügbar ist. Die hochgeladenen Dateien werden aus dem Staging-Bereich durch einen periodischen Auftrag entfernt, dessen Intervall durch den stagingPurgeInterval-Parameter konfiguriert ist.

Fehlgeschlagene Uploads (etwa aufgrund von Netzwerkstörungen) werden in eine Warteschlange gestellt und regelmäßig wiederholt. Das Wiederholungsintervall wird mithilfe des stagingRetryInterval parameter konfiguriert.

Konfigurieren von nicht binären Replikationen mit Amazon S3 configuring-binaryless-replication-with-amazon-s

Die folgenden Schritte sind erforderlich, um nicht binäre Replikationen mit S3 zu konfigurieren:

  1. Installieren Sie die Authoring- und Publishing-Instanzen und stellen Sie sicher, dass diese ordnungsgemäß gestartet werden.

  2. Gehen Sie zu den Einstellungen für den Replikationsagenten, indem Sie eine Seite in https://localhost:4502/etc/replication/agents.author/publish.html öffnen.

  3. Wählen Sie im Abschnitt Einstellungen die Schaltfläche Bearbeiten.

  4. Ändern Sie die Option für den Serialisierungs typ in Nicht binär.

  5. Fügen Sie den Parameter binaryless = true dem Transport-URI hinzu. Nach dieser Änderung sollte der URI ungefähr wie folgt aussehen:

    https://localhost:4503/bin/receive?sling:authRequestLogin=1&binaryless=true

  6. Starten Sie alle Authoring- und Publishing-Instanzen neu, damit die Änderungen wirksam werden.

Erstellen eines Clusters unter Verwendung von S3 und MongoDB creating-a-cluster-using-s-and-mongodb

  1. Entpacken Sie die CQ-Schnellstartdatei unter Verwendung des folgenden Befehls:

    java -jar cq-quickstart.jar -unpack

  2. Nachdem AEM entpackt wurde, erstellen Sie einen Ordner im Installationsverzeichnis crx-quickstart/install.

  3. Erstellen Sie diese beiden Dateien im Ordner crx-quickstart:

    • org.apache.jackrabbit.oak.plugins.document.DocumentNodeStoreService.config

    • org.apache.jackrabbit.oak.plugins.blob.datastore.S3DataStore.config

    Nachdem die Dateien erstellt wurden, fügen Sie nach Bedarf die Konfigurationsoptionen hinzu.

  4. Installieren Sie die beiden Bundles, die für den S3-Datenspeicher erforderlich sind, wie oben beschrieben.

  5. Stellen Sie sicher, dass MongoDB installiert ist und eine mongod-Instanz ausgeführt wird.

  6. Starten Sie AEM mit dem folgenden Befehl:

    java -Xmx1024m -jar cq-quickstart.jar -r crx3,crx3mongo

  7. Wiederholen Sie die Schritte 1 bis 4 für die zweite AEM-Instanz.

  8. Starten Sie die zweite AEM-Instanz.

Konfigurieren eines freigegebenen Datenspeichers configuring-a-shared-data-store

  1. Erstellen Sie zunächst die Konfigurationsdatei des Datenspeichers in jeder Instanz, die zum Freigeben des Datenspeichers erforderlich ist:

    • Wenn Sie einen FileDataStore verwenden, erstellen Sie eine Datei mit dem Namen org.apache.jackrabbit.oak.plugins.blob.datastore.FileDataStore.config und legen Sie diese im Ordner <aem-install>/crx-quickstart/install ab.

    • Wird S3 als Datenspeicher verwendet, erstellen Sie eine Datei mit dem Namen rg.apache.jackrabbit.oak.plugins.blob.datastore.S3DataStore.config im Ordner <aem-install>/crx-quickstart/install, wie oben erläutert.

  2. Ändern Sie die Konfigurationsdateien der Datenspeicher in jeder Instanz so, dass sie auf denselben Datenspeicher verweisen. Weitere Informationen finden Sie in diesem Artikel.

  3. Wenn die Instanz von einem vorhandenen Server geklont wurde, müssen Sie die clusterId der neuen Instanz mit dem aktuellsten oak-run-Tool entfernen, während das Repository offline ist. Der auszuführende Befehl lautet:

    code language-xml
    java -jar oak-run.jar resetclusterid < repository path | Mongo URI >
    
    note note
    NOTE
    Wenn ein Segmentknotenspeicher konfiguriert ist, muss der Repository-Pfad angegeben werden. Standardmäßig lautet der Pfad <aem-install-folder>/crx-quickstart/repository/segmentstore.. Ist ein Knotenspeicher „Dokument“ konfiguriert, können Sie einen URI im Format einer Mongo-Verbindungszeichenfolge verwenden.
    note note
    NOTE
    Das oak-run-Tool kann über diese Adresse heruntergeladen werden:
    https://mvnrepository.com/artifact/org.apache.jackrabbit/oak-run/
    Abhängig von der Oak-Version, die Sie bei Ihrer AEM-Installation verwenden, müssen unterschiedliche Versionen des Tools verwendet werden. Überprüfen Sie die nachstehende Liste der Versionsanforderungen, bevor Sie das Tool verwenden:
    code language-none
    * Setzen Sie für die Oak-Versionen **1.2.x** das oak-run-Tool der Version **1.2.12 oder höher** ein.
    * Für **neuere** Oak-Versionen verwenden Sie die oak-run-Version, die dem Oak-Core der AEM-Installation entspricht.
    
  4. Validieren Sie abschließend die Konfiguration. Suchen Sie zur Validierung nach einer eindeutigen Datei, die dem Datenspeicher von jedem Repository hinzugefügt wird, das sie freigibt. Das Format der Dateien ist repository-[UUID], wobei die UUID für eine eindeutige Kennung jedes Repositorys steht.

    Daher sollte eine ordnungsgemäße Konfiguration so viele eindeutige Dateien enthalten wie Repositorys, die den Datenspeicher gemeinsam nutzen.

    Die Dateien werden je nach Datenspeicher unterschiedlich gespeichert:

    • Für den FileDataStore werden die Dateien unter dem Stammverzeichnis des Datenspeicherordners erstellt.
    • Für den S3DataStore werden die Dateien im konfigurierten S3-Bucket unter dem META-Ordner erstellt.

Azure-Datenspeicher azure-data-store

AEM kann so konfiguriert werden, dass Daten im Microsoft® Azure Storage-Dienst gespeichert werden. Zur Konfiguration wird die PID org.apache.jackrabbit.oak.plugins.blob.datastore.AzureDataStore.config verwendet.

Zur Aktivierung der Datenspeicherfunktionalität von Azure muss ein Feature Pack mit dem Azure-Connector heruntergeladen und installiert werden. Gehen Sie zum Adobe-Repository und laden Sie die neueste der 1.6.x-Versionen des Feature Packs herunter (z. B. com.adobe.granite.oak.azureblobconnector-1.6.3.zip).

NOTE
Bei Verwendung von AEM mit TarMK werden die Binärdateien standardmäßig im FileDataStore gespeichert. Um TarMK mit dem Azure Datenspeicher nutzen zu können, müssen Sie AEM mithilfe des Ausführungsmodus crx3tar-nofds starten, z. B.:
java -jar <aem-jar-file>.jar -r crx3tar-nofds

Nach dem Download können Sie den Azure-Connector wie folgt installieren und konfigurieren:

  1. Extrahieren Sie den Inhalt der ZIP-Datei des Feature Packs in einen temporären Ordner.

  2. Gehen Sie zum temporären Ordner und kopieren Sie den Inhalt von jcr_root/libs/system/install in den Ordner <aem-install>crx-quickstart/install.

  3. Wenn AEM bereits für Tar- oder MongoDB-Speicher konfiguriert ist, entfernen Sie etwaig vorhandene Konfigurationsdateien aus dem Ordner /crx-quickstart/install, bevor Sie fortfahren. Die folgenden Dateien müssen entfernt werden:

    Für MongoMK:

    org.apache.jackrabbit.oak.plugins.document.DocumentNodeStoreService.config

    Für TarMK:

    org.apache.jackrabbit.oak.segment.SegmentNodeStoreService.config

  4. Kehren Sie zu dem temporären Verzeichnis mit dem extrahierten Feature Pack zurück und kopieren Sie den Inhalt von jcr_root/libs/system/config in den Ordner <aem-install>/crx-quickstart/install.

  5. Bearbeiten Sie die Konfigurationsdatei und fügen Sie die für Ihr Setup erforderlichen Konfigurationsoptionen hinzu.

  6. Starten Sie AEM.

Sie können die Konfigurationsdatei mit den folgenden Optionen verwenden:

  • azureSas="": In der Connector-Version 1.6.3 wurde Unterstützung für Azure Shared Access Signature (SAS) hinzugefügt. Wenn in der Konfigurationsdatei sowohl SAS als auch Speicheranmeldeinformationen vorhanden sind, hat SAS Priorität. Weitere Informationen zu SAS finden Sie in der offiziellen Dokumentation. Stellen Sie sicher, dass '=' wie folgt mit Escapezeichen versehen ist '='.

  • azureBlobEndpoint="": Der Azure-Blob-Endpunkt, z. B. https://<Speicherkonto>.blob.core.windows.net.

  • accessKey="": Der Speicherkontoname. Weitere Informationen zu den Microsoft® Azure Anmeldeinformationen für die Authentifizierung finden Sie in der offiziellen Dokumentation.

  • secretKey="": Der Speicherzugriffsschlüssel. Stellen Sie sicher, dass '=' wie folgt mit Escapezeichen versehen ist '='.

  • container="": Der Name des Microsoft® Azure Blob Storage-Containers. Der Container ist eine Gruppierung einer Reihe von Blobs. Weitere Einzelheiten finden Sie der offiziellen Dokumentation.

  • maxConnections="": Die gleichzeitige Anzahl simultaner Anfragen pro Vorgang. Der Standardwert lautet 1.

  • maxErrorRetry="": Die Anzahl der Wiederholungen pro Anfrage. Der Standardwert lautet 3.

  • socketTimeout="": Das Zeitüberschreitungsintervall, in Millisekunden, für die Anfrage. Der Standardwert lautet 5 Minuten.

Neben den oben aufgeführten Einstellungen können auch die folgenden Einstellungen konfiguriert werden:

  • path: Der Pfad des Datenspeichers. Standard: <aem-install>/repository/datastore.
  • RecordLength: Die Mindestgröße eines Objekts, das im Datenspeicher gespeichert werden soll. Der Standardwert lautet 16 KB.
  • maxCachedBinarySize: Binärdateien, die kleiner als oder gleich diesem Wert sind, werden im Speichercache gespeichert. Die Größe wird in Byte angegeben. Der Standardwert lautet 17408 (17 KB).
  • cacheSize: Die Größe des Cache. Der Wert wird in Byte angegeben. Der Standardwert lautet 64 GB.
  • secret: Darf nur bei einer nicht binären Replikation für freigegebene Datenspeicher verwendet werden.
  • stagingSplitPercentage: Der Prozentsatz der Cachegröße, der zum Staging asynchroner Uploads konfiguriert ist. Der Standardwert lautet 10.
  • uploadThreads: Die Anzahl der Uploadthreads für asynchrone Uploads. Der Standardwert lautet 10.
  • stagingPurgeInterval: Das Intervall in Sekunden zum endgültigen Löschen abgeschlossener Uploads aus dem Staging-Cache. Der Standardwert lautet 300 Sekunden (5 Minuten).
  • stagingRetryInterval: Das Wiederholungsintervall in Sekunden für fehlgeschlagene Uploads. Der Standardwert lautet 600 Sekunden (10 Minuten).
NOTE
Alle Einstellungen sollten in Anführungszeichen gesetzt werden, z. B.:
accessKey="ASDASDERFAERAER"
secretKey="28932hfjlkwdo8fufsdfas\=\="

Automatische Datenspeicherbereinigung data-store-garbage-collection

Im Rahmen der automatischen Datenspeicherbereinigung werden nicht verwendete Dateien aus dem Datenspeicher entfernt. Dabei wird wertvoller Festplattenspeicher freigegeben.

Sie können die automatische Datenspeicherbereinigung wie folgt ausführen:

  1. Rufen Sie die JMX-Konsole unter der folgenden Adresse auf: https://<serveraddress:port>/system/console/jmx

  2. Suchen Sie nach RepositoryManagement. Wenn Sie das MBean „Repository Manager“ gefunden haben, klicken Sie darauf, um die verfügbaren Optionen aufzurufen.

  3. Scrollen Sie zum Ende der Seite und klicken Sie auf den Link startDataStoreGC(boolesches markOnly).

  4. Geben Sie im folgenden Dialogfeld für den Parameter false den Wert markOnly ein und klicken Sie auf Invoke:

    chlimage_1-9

    note note
    NOTE
    Der Parameter markOnly gibt an, ob die Sweeping-Phase der automatischen Bereinigung ausgeführt wird oder nicht.

Automatische Datenspeicherbereinigung für einen freigegebenen Datenspeicher data-store-garbage-collection-for-a-shared-data-store

NOTE
Wenn Sie die automatische Bereinigung für einen eingerichteten Cluster- oder freigegebenen Datenspeicher (mit Mongo oder Segment-Tar) durchführen, werden im Protokoll möglicherweise Warnungen angezeigt, wonach bestimmte Blob-IDs nicht gelöscht werden können. Blob-IDs, die in einer früheren automatischen Bereinigung gelöscht wurden, werden von anderen Cluster- oder Freigabeknoten, die keine Informationen über die ID-Löschungen haben, fälschlicherweise erneut referenziert. Daher wird bei der automatischen Bereinigung eine Warnung protokolliert, wenn versucht wird, eine bereits im vorherigen Durchgang gelöschte ID zu entfernen. Dieses Verhalten wirkt sich weder auf die Leistung noch auf die Funktionalität aus.
NOTE
Wenn Sie ein freigegebenes Datenspeicher-Setup verwenden und die automatische Speicherbereinigung deaktiviert ist, kann das Ausführen der Aufgabe „Lucene-Binärdatei-Bereinigung“ plötzlich den verwendeten Speicherplatz erhöhen. Deaktivieren Sie BlobTracker für alle Authoring- und Publishing-Instanzen, indem Sie Folgendes tun:
  1. Halten Sie die AEM-Instanz an.
  2. Fügen Sie den blobTrackSnapshotIntervalInSecs=L"0"-Parameter in der Datei crx-quickstart/install/org.apache.jackrabbit.oak.segment.SegmentNodeStoreService.config hinzu. Für diesen Parameter ist Oak 1.12.0, 1.10.2 oder höher erforderlich.
  3. Starten Sie die AEM-Instanz neu.

In neueren AEM-Versionen kann die automatische Datenspeicherbereinigung auch in einem Datenspeicher durchgeführt werden, der von mehreren Repositorys genutzt wird. Führen Sie die folgenden Schritte aus, um eine automatische Datenspeicherbereinigung in einem freigegebenen Datenspeicher durchführen zu können:

  1. Stellen Sie sicher, dass etwaige für die automatische Datenspeicherbereinigung konfigurierten Wartungsaufgaben auf allen Repository-Instanzen, die denselben Datenspeicher nutzen, deaktiviert sind.

  2. Führen Sie die unter Automatische Bereinigung von Binärdaten erwähnten Schritte einzeln auf allen Repository-Instanzen aus, die denselben Datenspeicher nutzen. Achten Sie jedoch darauf, den Wert true für den Parameter markOnly einzugeben, bevor Sie auf die Schaltfläche „Invoke“ klicken:

    chlimage_1-10

  3. Führen Sie nach Abschluss des obigen Verfahrens auf allen Instanzen die automatische Datenspeicherbereinigung erneut von einer der Instanzen aus durch:

    1. Wechseln Sie zur JMX-Konsole und wählen Sie das MBean „Repository Manager“ aus.
    2. Klicken Sie auf den Link Click startDataStoreGC(boolean markOnly).
    3. Geben Sie im folgenden Dialogfeld für den Parameter false erneut den Wert markOnly ein.

    Hierdurch werden alle in der zuvor verwendeten Markierungsphase gefundenen Dateien ausgeblendet, und die restlichen nicht verwendeten Dateien werden aus dem Datenspeicher gelöscht.

recommendation-more-help
19ffd973-7af2-44d0-84b5-d547b0dffee2