Schutzmaßnahmen bei der Datenaufnahme

IMPORTANT
Limits für die Batch- und Streaming-Erfassung werden auf Organisationsebene und nicht auf Sandbox-Ebene berechnet. Das bedeutet, dass Ihre Datennutzung pro Sandbox an die gesamte Berechtigung zur Lizenznutzung gebunden ist, die Ihrer gesamten Organisation entspricht. Darüber hinaus ist die Datennutzung in Entwicklungs-Sandboxes auf 10 % Ihrer Gesamtprofile beschränkt. Weitere Informationen zur Lizenzverwendungsberechtigung finden Sie im Leitfaden Best Practices für die Datenverwaltung.

Leitplanken sind Schwellenwerte, die Anhaltspunkte für die Daten- und Systemnutzung, die Performance-Optimierung und die Vermeidung von Fehlern oder unerwarteten Ergebnissen in Adobe Experience Platform bieten. Leitplanken können sich auf Ihre Nutzung oder Verwendung von Daten und Verarbeitung im Zusammenhang mit Ihren Lizenzierungsberechtigungen beziehen.

IMPORTANT
Überprüfen Sie Ihre Lizenzberechtigungen in Ihrem Kundenauftrag und die entsprechende Produktbeschreibung auf die tatsächlichen Nutzungsbeschränkungen zusätzlich zu dieser Limits-Seite.

Dieses Dokument enthält Anleitungen zu Schutzmaßnahmen bei der Datenaufnahme in Adobe Experience Platform.

Schutzmaßnahmen bei der Batch-Aufnahme

In der folgenden Tabelle sind Schutzmaßnahmen aufgeführt, die bei der Verwendung der Batch-Aufnahme-API oder von Quellen zu beachten sind:

Art der Aufnahme
Leitlinien
Anmerkungen
Data-Lake-Aufnahme mithilfe der Batch-Aufnahme-API
  • Mit der Batch-Aufnahme-API können Sie bis zu 20 GB Daten pro Stunde in den Data Lake aufnehmen.
  • Die maximale Anzahl von Dateien pro Batch beträgt 1.500.
  • Die maximale Batch-Größe beträgt 100 GB.
  • Die maximale Anzahl von Eigenschaften oder Feldern pro Zeile beträgt 10.000.
  • Die maximale Anzahl der Batches pro Minute und anwendender Person beträgt 2000.
Data-Lake-Aufnahme mithilfe von Batch-Quellen
  • Sie können mit Batch-Aufnahme-Quellen wie Azure Blob, Amazon S3 und SFTP bis zu 200 GB Daten pro Stunde in den Data Lake aufnehmen.
  • Die Batch-Größe sollte zwischen 256 MB und 100 GB liegen. Dies gilt sowohl für unkomprimierte als auch für komprimierte Daten. Wenn komprimierte Daten im Data Lake unkomprimiert sind, gelten diese Einschränkungen.
  • Die maximale Anzahl von Dateien pro Batch beträgt 1.500.
  • Die Mindestgröße einer Datei oder eines Ordners beträgt 1 Byte. Es ist nicht möglich, Dateien oder Ordner mit der Größe 0 Byte zu erfassen.
Lesen Sie die Quellenübersicht für einen Katalog von Quellen, die Sie für die Datenerfassung verwenden können.
Batch-Aufnahme in Profil
  • Die maximale Größe einer Datensatzklasse beträgt 100 KB (fest).
  • Die maximale Größe einer ExperienceEvent-Klasse beträgt 10 KB (hart).
Anzahl der täglich aufgenommenen Profil- oder ExperienceEvent-Batches
Die maximale Anzahl von Profil- oder ExperienceEvent-Batches, die pro Tag aufgenommen werden, beträgt 90. Das bedeutet, dass die Gesamtanzahl der pro Tag aufgenommenen Profil- und ExperienceEvent-Batches 90 nicht überschreiten darf. Das Aufnehmen zusätzlicher Batches beeinträchtigt die System-Performance.
Dies ist ein weiches Limit. Es ist möglich, über ein weiches Limit hinauszugehen, jedoch stellen weiche Limits einen empfohlenen Richtwert für die System-Performance dar.
Verschlüsselte Datenaufnahme
Die maximal unterstützte Größe einer einzelnen verschlüsselten Datei beträgt 1 GB. Sie können beispielsweise Daten von 2 oder mehr GBs in einem einzigen Datenfluss erfassen, jedoch darf keine einzelne Datei im Datenfluss-Lauf 1 GB überschreiten.
Die Erfassung verschlüsselter Daten kann länger dauern als die normale Datenerfassung. Weitere Informationen finden Sie im Leitfaden zur verschlüsselten Datenerfassungs-API .
Batch-Erfassung aktualisieren
Die Aufnahme von aufgenommenen Batches kann bis zu 10-mal langsamer sein als normale Batches. Daher sollten Sie Ihre aktualisierten Batches unter zwei Millionen Datensätzen aufbewahren, um eine effiziente Laufzeit sicherzustellen und zu vermeiden, dass andere Batches in der Sandbox verarbeitet werden.
Sie können zwar zweifellos Batches erfassen, die zwei Millionen Datensätze überschreiten, aber aufgrund der Einschränkungen kleiner Sandboxes wird die Aufnahmezeit erheblich länger sein.

Schutzmaßnahmen bei der Streaming-Aufnahme

Informationen zu Limits für die Streaming-Erfassung finden Sie in der Streaming-Erfassung - Übersicht .

Limits für Streaming-Quellen

In der folgenden Tabelle sind die bei der Verwendung von Streaming-Quellen zu berücksichtigenden Limits aufgeführt:

Art der Aufnahme
Leitlinien
Anmerkungen
Streaming-Quellen
  • Die maximale Datensatzgröße beträgt 1 MB, wobei die empfohlene Größe bei 10 KB liegt.
  • Streaming-Quellen unterstützen bei der Aufnahme in den Data Lake zwischen 4.000 und 5.000 Anfragen pro Sekunde. Dies gilt für beide neu erstellten Quellverbindungen zusätzlich zu den bestehenden Quellverbindungen. Hinweis: Es kann bis zu 30 Minuten dauern, bis die Streaming-Daten vollständig im Data Lake verarbeitet sind.
  • Streaming-Quellen unterstützen maximal 1.500 Anfragen pro Sekunde bei der Aufnahme von Daten in Profil- oder Streaming-Segmentierung.
Streaming-Quellen wie Kafka, Azure Event Hubs und Amazon Kinesis verwenden nicht die Route des Data Collection Core Service (DCCS) und können unterschiedliche Durchsatzbeschränkungen aufweisen. In der Quellenübersicht finden Sie einen Katalog der Quellen, die Sie für die Datenaufnahme verwenden können.

Nächste Schritte

Weitere Informationen zu anderen Limits für Experience Platform-Services, End-to-End-Latenzinformationen und Lizenzinformationen aus Real-Time CDP Product Description-Dokumenten finden Sie in der folgenden Dokumentation:

recommendation-more-help
2ee14710-6ba4-4feb-9f79-0aad73102a9a