Guardrails voor gegevensinname

IMPORTANT
De begeleiding voor partij en het stromen wordt ingestie berekend op het organisatieniveau en niet op het zandbakniveau. Dit betekent dat uw gegevensgebruik per sandbox is gebonden aan de totale gebruiksrechten voor licenties die overeenkomen met uw volledige organisatie. Daarnaast is het gebruik van gegevens in ontwikkelingssandboxen beperkt tot 10% van uw totale profielen. Voor meer informatie over de gebruiksrechten van de vergunning, lees de gids van de beste praktijken van het gegevensbeheer.

De begeleiding is drempels die begeleiding voor gegevens en systeemgebruik, prestatiesoptimalisering, en vermijding van fouten of onverwachte resultaten in Adobe Experience Platform verstrekken. De begeleiding kan naar uw gebruik of gebruik van gegevens en verwerking met betrekking tot uw vergunningsrechten verwijzen.

IMPORTANT
Controleer uw vergunningsrechten in uw Orde van de Verkoop en de overeenkomstige Beschrijving van het Productop daadwerkelijke gebruiksgrenzen naast deze guardrails pagina.

Dit document bevat richtlijnen voor het opnemen van gegevens in Adobe Experience Platform.

Guardrails voor batchgewijs innemen

De volgende lijst schetst te overwegen gidsen wanneer het gebruiken van partij ingestie APIof bronnen:

Type opname
Richtsnoeren
Notities
Inname van gegevens in een meer met behulp van de batch-opname-API
  • Met de batch-opname-API kunt u maximaal 20 GB aan gegevens per uur opnemen in het datumpomeer.
  • Het maximumaantal bestanden per batch is 1500.
  • De maximale batchgrootte is 100 GB.
  • Het maximumaantal eigenschappen of velden per rij is 10000.
  • Het maximumaantal batches per minuut per gebruiker is 2000.
Inname van gegevenslagen met behulp van batchbronnen
  • U kunt maximaal 200 GB aan gegevens per uur invoeren aan datumpeer gebruikend batch-ingestigenbronnen zoals Azure Blob, Amazon S3, en SFTP.
  • Een batch moet tussen 256 MB en 100 GB groot zijn. Dit geldt zowel voor ongecomprimeerde als gecomprimeerde gegevens. Wanneer gecomprimeerde gegevens niet in het datumpeer worden gecomprimeerd, zijn deze beperkingen van toepassing.
  • Het maximumaantal bestanden per batch is 1500.
  • Een bestand of map heeft minimaal 1 byte. U kunt geen bestanden of mappen met 0-byte-grootte invoeren.
Lees het overzicht van bronnenvoor een catalogus van bronnen u voor gegevensopname kunt gebruiken.
Inname in batch naar profiel
  • De maximale grootte van een recordklasse is 100 KB (hard).
  • De maximale grootte van een klasse ExperienceEvent is 10 KB (hard).
Aantal per dag ingenomen Profile- of ExperienceEvent-batches
het maximumaantal per dag ingebedde partijen van het Profiel of van de ExperienceEvent is 90. Dit betekent dat het gecombineerde totaal van de elke dag ingeslikte profielen Profile en ExperienceEvent niet meer dan 90 mag zijn. Door extra batches in te voeren worden de systeemprestaties beïnvloed.
Dit is een zachte limiet. Het is mogelijk om verder te gaan dan een zachte limiet, maar zachte limieten bieden een aanbevolen richtlijn voor systeemprestaties.
Versleutelde gegevensinvoer
De maximale ondersteunde grootte van één gecodeerd bestand is 1 GB. Terwijl u bijvoorbeeld 2 of meer GB's aan gegevens kunt invoeren in één dataflow-run, kan geen enkel afzonderlijk bestand in de dataflow-run meer dan 1 GB bedragen.
Het inslikken van gecodeerde gegevens kan langer duren dan het innemen van gewone gegevens. Lees de gecodeerde gids van de gegevensopname APIvoor meer informatie.
Batchopname bijwerken
De inname van upsert de partijen kan tot 10x langzamer zijn dan regelmatige partijen, daarom zou u uw upsert partijen onder twee miljoen verslagen moeten houden om efficiënte runtime te verzekeren en het blokkeren van andere partijen te vermijden die in de zandbak worden verwerkt.
Hoewel u ongetwijfeld batches met meer dan twee miljoen records kunt innemen, is de tijd van inname aanzienlijk langer vanwege de beperkingen van kleine sandboxen.

Guardrails voor streaming opname

Lees het stromen ingeslikt overzichtvoor informatie over gidsen voor het stromen ingestie.

Guardrails voor streamingbronnen

In de volgende tabel worden de instructies beschreven waarmee u rekening moet houden bij het gebruik van de streamingbronnen:

Type opname
Richtsnoeren
Notities
Streaming bronnen
  • De maximale recordgrootte is 1 MB, waarbij de aanbevolen grootte 10 kB is.
  • Streaming bronnen ondersteunen tussen de 4000 en 5000 aanvragen per seconde bij het opnemen naar het data-meer. Dit geldt voor zowel nieuw gemaakte bronverbindingen als bestaande bronverbindingen. Nota: Het kan tot 30 minuten voor het stromen gegevens vergen om volledig te worden verwerkt tot gegevens meer.
  • Streaming bronnen ondersteunen maximaal 1500 aanvragen per seconde bij het opnemen van gegevens naar profiel of streaming segmentatie.
Streaming bronnen zoals Kafka , Azure Event Hubs en Amazon Kinesis maken geen gebruik van de Data Collection Core Service (DCCS)-route en kunnen verschillende doorvoergrenzen hebben. Zie het overzicht van bronnenvoor een catalogus van bronnen u voor gegevensopname kunt gebruiken.

Volgende stappen

Raadpleeg de volgende documentatie voor meer informatie over andere Experience Platforms services guardrails, over end-to-end latentie-informatie en licentiegegevens uit Real-Time CDP Product Description-documenten:

recommendation-more-help
2ee14710-6ba4-4feb-9f79-0aad73102a9a