Schutzmaßnahmen bei der Datenaufnahme
Leitplanken sind Schwellenwerte, die Anhaltspunkte für die Daten- und Systemnutzung, die Performance-Optimierung und die Vermeidung von Fehlern oder unerwarteten Ergebnissen in Adobe Experience Platform bieten. Leitplanken können sich auf Ihre Nutzung oder Verwendung von Daten und Verarbeitung im Zusammenhang mit Ihren Lizenzierungsberechtigungen beziehen.
Dieses Dokument enthält Anleitungen zu Schutzmaßnahmen bei der Datenaufnahme in Adobe Experience Platform.
Schutzmaßnahmen bei der Batch-Aufnahme
In der folgenden Tabelle sind Schutzmaßnahmen aufgeführt, die bei der Verwendung der Batch-Aufnahme-API oder von Quellen zu beachten sind:
- Mit der Batch-Aufnahme-API können Sie bis zu 20 GB Daten pro Stunde in den Data Lake aufnehmen.
- Die maximale Anzahl von Dateien pro Batch beträgt 1.500.
- Die maximale Batch-Größe beträgt 100 GB.
- Die maximale Anzahl von Eigenschaften oder Feldern pro Zeile beträgt 10.000.
- Die maximale Anzahl der Batches pro Minute und anwendender Person beträgt 2000.
- Sie können mit Batch-Aufnahme-Quellen wie Azure Blob, Amazon S3 und SFTP bis zu 200 GB Daten pro Stunde in den Data Lake aufnehmen.
- Eine Batch-Größe sollte zwischen 256 MB und 100 GB liegen. Dies gilt sowohl für unkomprimierte als auch für komprimierte Daten. Wenn komprimierte Daten im Data Lake unkomprimiert werden, gelten diese Einschränkungen.
- Die maximale Anzahl von Dateien pro Batch beträgt 1.500.
- Die Mindestgröße einer Datei oder eines Ordners beträgt 1 Byte. Dateien oder Ordner mit einer Größe von 0 Byte können nicht aufgenommen werden.
- Die maximale Größe einer Datensatzklasse beträgt 100 KB (Hard).
- Die maximale Größe einer ExperienceEvent-Klasse ist 10 KB (Hard).
Schutzmaßnahmen bei der Streaming-Aufnahme
Weitere Informationen zu Leitplanken für Streaming-Aufnahme findenin der Übersicht zur Streaming-Aufnahme .
Leitplanken für Streaming-Quellen
In der folgenden Tabelle sind Schutzmaßnahmen aufgeführt, die bei der Verwendung der Streaming-Quellen zu beachten sind:
- Die maximale Datensatzgröße beträgt 1 MB, wobei die empfohlene Größe bei 10 KB liegt.
- Streaming-Quellen unterstützen bei der Aufnahme in den Data Lake zwischen 4.000 und 5.000 Anfragen pro Sekunde. Dies gilt für beide neu erstellten Quellverbindungen zusätzlich zu vorhandenen Quellverbindungen. Hinweis: Es kann bis zu 30 Minuten dauern, bis die Streaming-Daten vollständig im Data Lake verarbeitet sind.
- Streaming-Quellen unterstützen bei der Aufnahme von Daten in ein Profil oder in die Streaming-Segmentierung maximal 1.500 Anfragen pro Sekunde.
Nächste Schritte
In der folgenden Dokumentation finden Sie weitere Informationen zu anderen Experience Platform-Services-Leitplanken, zu End-to-End-Latenzinformationen und Lizenzinformationen aus Real-Time CDP-Produktbeschreibungsdokumenten:
- Real-Time CDP-Leitplanken
- End-to-End-Latenzdiagramme für verschiedene Experience Platform-Services.
- Real-Time Customer Data Platform (B2C Edition - Prime- und Ultimate-Pakete)
- Real-Time Customer Data Platform (B2P - Prime- und Ultimate-Pakete)
- Real-Time Customer Data Platform (B2B - Prime- und Ultimate-Pakete)