Ce document répond aux questions les plus fréquemment posées sur les sources dans Adobe Experience Platform. Pour les questions et le dépannage liés à d’autres Platform les services, y compris ceux qui sont rencontrés dans tous les Platform API, reportez-vous à la section Guide de dépannage des Experience Platform.
Vous trouverez ci-dessous une liste de réponses aux questions fréquentes sur les sources.
Vous devrez peut-être placer sur la liste autorisée certaines adresses IP pour activer les sources. Pour plus d’informations, consultez la documentation sur votre connecteur source spécifique.
Les sources peuvent être authentifiées à l’aide de chaînes de connexion, de noms d’utilisateur et de mots de passe, ou de jetons d’accès et de clés. Vous trouverez des détails spécifiques sur les types d’authentification pris en charge dans la documentation du connecteur source spécifié.
Si vous constatez que toutes vos exécutions de flux récentes échouent, vos informations d’identification ont peut-être changé ou expiré. Pour résoudre ce problème, essayez de mettre à jour votre connexion avec les informations d’identification les plus récentes.
Actuellement, les types de fichiers pris en charge sont les fichiers délimités JSON et Parquet.
Vous trouverez ci-dessous une liste des contraintes que vous devez tenir compte des fichiers dans les sources.
/
). Elle sera le cas échéant automatiquement supprimée.! ' ( ) ; @ & = + $ , % # [ ]
" \ / : | < > * ?
.\uE000
, bien que valides dans les noms de fichier NTFS, ne sont pas des caractères Unicode valides. En outre, certains caractères ASCII ou Unicode, tels que les caractères de contrôle (0x00 à 0x1F, \u0081, etc.), ne sont pas non plus autorisés. Pour les règles régissant les chaînes Unicode en HTTP/1.1, voir RFC 2616, section 2.2 : règles de base et RFC 3987.Les types de données pris en charge sont les entiers, les chaînes, les valeurs booléennes, les objets datetime, les tableaux et les objets.
Les sources prennent en charge un large éventail de formats de date et heure lors de l’ingestion de données. Vous trouverez plus d’informations sur les formats de date et d’heure pris en charge dans la section dates du guide de gestion des formats de données dans la documentation relative à la préparation des données.
Les fichiers JSON et Parquet prennent en charge de manière native les tableaux. Pour les structures plates, telles que les fichiers CSV, les tableaux ne sont pas pris en charge. Cependant, les chaînes comportant plusieurs valeurs peuvent être divisées en un tableau à l’aide de fonctions de préparation de données telles que l’explosion et la jointure. Vous trouverez plus d’informations sur ces fonctions de préparation de données dans la section guide des fonctions de préparation de données
Toutes les sources d’ingestion par lots prennent en charge l’ingestion partielle. Toutefois, les sources d’ingestion par flux ne prennent pas en charge l’ingestion partielle.
L’ingestion partielle doit être utilisée si vous le faites not ont des contraintes, telles que l’ingestion de l’intégralité du fichier dans Platform. Vous pouvez également utiliser l’ingestion partielle si vous n’avez pas envie d’ingérer des données susceptibles de contenir des erreurs.
Il n’existe pas de "seuil d’erreur type" pour l’ingestion partielle. Cette valeur peut plutôt varier d’un cas d’utilisation à l’autre. Par défaut, le seuil d’erreur est défini sur 5 %.
Les exécutions de flux ne sont pas générées instantanément et peuvent prendre entre deux et trois minutes pour se mettre à jour après avoir été désignées. startTime
. La vérification de l’état d’une exécution de flux, immédiatement après la création d’un nouveau flux de données ne renvoie pas d’informations sur l’exécution de flux de lastRunDetails
comme cela ne s'est pas encore produit. Il est recommandé d’autoriser le flux de données à générer quelques minutes avant de vérifier l’état de l’exécution du flux.