Mécanismes de sécurisation pour l’ingestion des données

IMPORTANT
Les barrières de sécurité pour l’ingestion par lots et par flux sont calculées au niveau de l’organisation et non au niveau de l’environnement de test. Cela signifie que votre utilisation des données par environnement de test est liée au total des droits d’utilisation des licences qui correspondent à l’ensemble de votre organisation. En outre, l’utilisation des données dans les environnements de test de développement est limitée à 10 % de vos profils totaux. Pour plus d’informations sur les droits d’utilisation des licences, consultez le guide des bonnes pratiques de gestion des données.

Les mécanismes de sécurisation sont des seuils qui fournissent des conseils pour l’utilisation des données et du système, l’optimisation des performances et la prévention des erreurs ou des résultats inattendus dans Adobe Experience Platform. Les mécanismes de sécurisation peuvent faire référence à l’utilisation ou la consommation de données et de traitement par rapport à vos droits de licence.

IMPORTANT
Vérifiez vos droits de licence dans votre commande de ventes et la description du produit correspondante sur les limites d’utilisation réelles en plus de cette page de garde-fous.

Ce document fournit des conseils sur les mécanismes de sécurisation pour l’ingestion de données dans Adobe Experience Platform.

Mécanismes de sécurisation pour l’ingestion par lots

Le tableau suivant décrit les mécanismes de sécurisation à prendre en compte lors de l’utilisation de l’API d’ingestion par lots ou de sources :

Type d’ingestion
Instructions
Notes
Ingestion du lac de données à l’aide de l’API d’ingestion par lots
  • Vous pouvez ingérer jusqu’à 20 Go de données par heure dans le lac de données à l’aide de l’API d’ingestion par lots.
  • Le nombre maximal de fichiers par lot est de 1 500.
  • La taille de lot maximale est de 100 Go.
  • Le nombre maximal de propriétés ou de champs par ligne est de 10 000.
  • Le nombre maximal de lots par minute, par utilisateur est de 2000.
Ingestion du lac de données à l’aide de sources de lots
  • Vous pouvez ingérer jusqu’à 200 Go de données par heure dans le lac de données à l’aide de sources d’ingestion par lots, telles que Azure Blob, Amazon S3 et SFTP.
  • La taille du lot doit être comprise entre 256 Mo et 100 Go. Cela s’applique aux données non compressées et compressées. Lorsque les données compressées sont décompressées dans le lac de données, ces limites s’appliquent.
  • Le nombre maximal de fichiers par lot est de 1 500.
  • La taille minimale d’un fichier ou d’un dossier est de 1 octet. Vous ne pouvez pas ingérer de fichiers ou de dossiers de taille 0 octet.
Lisez la présentation des sources pour obtenir un catalogue de sources que vous pouvez utiliser pour l’ingestion de données.
Ingestion par lots vers le profil
  • La taille maximale d’une classe d’enregistrement est de 100 Ko (en dur).
  • La taille maximale d’une classe ExperienceEvent est de 10 Ko (en dur).
Nombre de lots Profile ou ExperienceEvent ingérés par jour
Le nombre maximal de lots Profile ou ExperienceEvent ingérés par jour est de 90. Cela signifie que le total combiné des lots Profile et ExperienceEvent ingérés chaque jour ne peut pas dépasser 90. L’ingestion de lots supplémentaires affectera les performances du système.
C’est une limite conditionnelle. Limite conditionnelle : il est possible d’aller au-delà d’une limite conditionnelle. Cependant, ces limites fournissent une orientation recommandée pour les performances du système.

Mécanismes de sécurisation pour l’ingestion en flux continu

Lisez la présentation de l’ingestion par flux pour plus d’informations sur les barrières de sécurité pour l’ingestion par flux.

Barrières de sécurité pour les sources en continu

Le tableau suivant décrit les barrières de sécurité à prendre en compte lors de l’utilisation des sources de diffusion en continu :

Type d’ingestion
Instructions
Notes
Sources en flux continu
  • La taille d’enregistrement maximale est de 1 Mo, la taille recommandée étant de 10 Ko.
  • Les sources en flux continu prennent en charge entre 4 000 et 5 000 demandes par seconde lors de l’ingestion dans le lac de données. Cela s’applique aux deux nouvelles connexions source, en plus des connexions source existantes. Remarque  : il peut s’écouler jusqu’à 30 minutes avant que les données de diffusion en continu ne soient complètement traitées dans le lac de données.
  • Les sources en flux continu prennent en charge un maximum de 1 500 requêtes par seconde lors de l’ingestion de données à une segmentation de profil ou de diffusion en continu.
Les sources en flux continu, telles que Kafka, Azure Event Hubs et Amazon Kinesis, n’utilisent pas l’itinéraire Data Collection Core Service (DCCS) et peuvent avoir différentes limites de débit. Consultez la présentation des sources pour un catalogue de sources que vous pouvez utiliser pour l’ingestion de données.

Étapes suivantes

Pour plus d’informations sur les barrières de sécurité des autres services Experience Platform, sur les informations de latence de bout en bout et les informations de licence des documents Description du produit Real-Time CDP, consultez la documentation suivante :

recommendation-more-help
2ee14710-6ba4-4feb-9f79-0aad73102a9a