Guardrail per l’acquisizione dei dati

IMPORTANT
I guardrail per l’acquisizione in batch e in streaming vengono calcolati a livello di organizzazione e non a livello di sandbox. Ciò significa che l’utilizzo dei dati per sandbox è associato al diritto totale all’utilizzo della licenza che corrisponde all’intera organizzazione. Inoltre, l’utilizzo dei dati nelle sandbox di sviluppo è limitato al 10% del totale dei profili. Per ulteriori informazioni sui diritti di utilizzo della licenza, leggere guida alle best practice per la gestione dei dati.

I guardrail sono soglie che forniscono indicazioni per l’utilizzo dei dati e del sistema, l’ottimizzazione delle prestazioni e la prevenzione di errori o risultati imprevisti in Adobe Experience Platform. I guardrail possono fare riferimento all’utilizzo o al consumo di dati e all’elaborazione in relazione alle licenze concesse.

IMPORTANT
Controllare i diritti di licenza nell'ordine di vendita e i corrispondenti Descrizione del prodotto sui limiti di utilizzo effettivi oltre a questa pagina di guardrail.

Questo documento fornisce indicazioni sui guardrail per l’acquisizione dei dati in Adobe Experience Platform.

Guardrail per l’acquisizione batch

La tabella seguente illustra i guardrail da considerare quando si utilizza API di acquisizione batch o origini:

Tipo di acquisizione
Linee guida
Note
Acquisizione del data lake tramite l’API di acquisizione batch
  • Puoi acquisire fino a 20 GB di dati all’ora nel data lake utilizzando l’API di acquisizione batch.
  • Il numero massimo di file per batch è 1500.
  • La dimensione massima del batch è di 100 GB.
  • È 10000 il numero massimo di proprietà o campi per riga.
  • Il numero massimo di batch al minuto per utente è 2000.
Acquisizione del data lake tramite origini batch
  • Puoi acquisire fino a 200 GB di dati all’ora nel data lake utilizzando origini di acquisizione batch come Azure Blob, Amazon S3, e SFTP.
  • La dimensione del batch deve essere compresa tra 256 MB e 100 GB. Questo vale sia per i dati non compressi che per quelli compressi. Quando i dati compressi non sono compressi nel data lake, si applicano queste limitazioni.
  • Il numero massimo di file per batch è 1500.
  • La dimensione minima di un file o di una cartella è di 1 byte. Non è possibile acquisire cartelle o file di dimensioni pari a 0 byte.
Leggi le panoramica sulle origini per un catalogo di origini che puoi utilizzare per l’acquisizione dei dati.
Acquisizione in batch nel profilo
  • La dimensione massima di una classe di record è 100 KB (rigido).
  • La dimensione massima di una classe ExperienceEvent è 10 KB (rigido).
Numero di batch di profili o ExperienceEvent acquisiti al giorno
Il numero massimo di batch di profili o ExperienceEvent acquisiti al giorno è 90. Ciò significa che il totale combinato di batch di profili ed ExperienceEvent acquisiti ogni giorno non può superare i 90. L'acquisizione di batch aggiuntivi influisce sulle prestazioni del sistema.
Si tratta di un limite non vincolante. È possibile superare un limite non superabile, tuttavia, i limiti non superabili forniscono una linea guida consigliata per le prestazioni del sistema.

Guardrail per acquisizione in streaming

Leggi le panoramica sull’acquisizione in streaming per informazioni sui guardrail per l’acquisizione in streaming.

Guardrail per sorgenti in streaming

La tabella seguente illustra i guardrail da considerare quando si utilizzano le sorgenti di streaming:

Tipo di acquisizione
Linee guida
Note
Origini di streaming
  • La dimensione massima del record è 1 MB, con la dimensione consigliata di 10 KB.
  • Le origini di streaming supportano tra 4000 e 5000 richieste al secondo durante l’acquisizione nel data lake. Questo vale per entrambe le connessioni di origine appena create, oltre alle connessioni di origine esistenti. Nota: possono essere necessari fino a 30 minuti affinché i dati in streaming vengano completamente elaborati nel data lake.
  • Le origini di streaming supportano un massimo di 1500 richieste al secondo durante l’acquisizione dei dati nel profilo o la segmentazione in streaming.
Origini di streaming come Kafka, Azure Event Hubs, e Amazon Kinesis non utilizzare il Data Collection Core Service (DCCS) e possono avere diversi limiti di velocità effettiva. Consulta la panoramica sulle origini per un catalogo di origini che puoi utilizzare per l’acquisizione dei dati.

Passaggi successivi

Consulta la seguente documentazione per ulteriori informazioni su altri guardrail dei servizi Experienci Platform, informazioni sulla latenza end-to-end e informazioni sulle licenze dai documenti di descrizione del prodotto Real-Time CDP:

recommendation-more-help
2ee14710-6ba4-4feb-9f79-0aad73102a9a