Diffuser des données de la base de données Snowflake vers Experience Platform à l’aide de l’interface utilisateur
Découvrez comment utiliser l’interface utilisateur pour diffuser des données de votre base de données Snowflake vers Adobe Experience Platform en suivant ce guide.
Commencer
Ce tutoriel nécessite une compréhension du fonctionnement des composants suivants d’Adobe Experience Platform :
-
Experience Data Model (XDM) Système : le cadre normalisé en fonction duquel Experience Platform organise les données d’expérience client.
- Principes de base de la composition des schémas : découvrez les blocs de création de base des schémas XDM, y compris les principes clés et les bonnes pratiques en matière de composition de schémas.
- Tutoriel sur l’éditeur de schémas : découvrez comment créer des schémas personnalisés à l’aide de l’interface utilisateur de l’éditeur de schémas.
-
Real-Time Customer Profile : fournit un profil de consommateur unifié en temps réel, basé sur des données agrégées provenant de plusieurs sources.
Authentification
Lisez le guide sur la configuration requise pour les données Snowflake diffusion en continu pour plus d’informations sur les étapes à suivre avant de pouvoir ingérer des données de diffusion en continu de Snowflake vers Experience Platform.
Utiliser la source de Snowflake Streaming pour diffuser des données Snowflake vers Experience Platform
Dans l’interface utilisateur d’Experience Platform, sélectionnez Sources dans le volet de navigation de gauche pour accéder à l’espace de travail Sources. Vous pouvez sélectionner la catégorie appropriée dans le catalogue sur le côté gauche de votre écran. Vous pouvez également trouver la source spécifique à utiliser à l’aide de l’option de recherche.
Dans la catégorie Bases de données, sélectionnez Snowflake Streaming, puis sélectionnez Ajouter des données.
La page Connecter le compte de streaming Snowflake s’affiche. Sur cette page, vous pouvez utiliser des informations d’identification nouvelles ou existantes.
Pour créer un compte, sélectionnez Nouveau compte et indiquez un nom, une description facultative et vos informations d’identification.
Lorsque vous avez terminé, sélectionnez Se connecter à la source puis attendez que la nouvelle connexion s’établisse.
table 0-row-2 1-row-2 2-row-2 3-row-2 4-row-2 5-row-2 6-row-2 7-row-2 | |
---|---|
Informations d’identification | Description |
Compte | Nom de votre compte Snowflake. Pour connaître les conventions relatives aux noms de compte, consultez le Snowflake Streaming guide d’authentification. |
Entrepôt de données | Nom de votre entrepôt de Snowflake. Les entrepôts gèrent l’exécution des requêtes dans Snowflake. Chaque entrepôt de Snowflake est indépendant les uns des autres et doit être accessible individuellement pour importer des données dans Experience Platform. |
Base de données | Nom de la base de données Snowflake. La base de données contient les données que vous souhaitez importer dans Experience Platform. |
Schéma | (Facultatif) Schéma de base de données associé à votre compte Snowflake. |
Nom d’utilisateur | Nom d’utilisateur de votre compte Snowflake. |
Mot de passe | Mot de passe de votre compte Snowflake. |
Rôle | (Facultatif) Rôle défini sur mesure pouvant être attribué à un utilisateur ou une utilisatrice, pour une connexion donnée. Si elle n’est pas fournie, cette valeur est public par défaut. |
Pour plus d’informations sur la création de comptes, consultez la section sur la configuration des paramètres de rôle dans la présentation de la Snowflake Streaming.
Pour utiliser un compte existant, sélectionnez Compte existant puis sélectionnez le compte de votre choix dans le catalogue des comptes existants.
Cliquez sur Suivant pour continuer.
Sélectionner les données select-data
-
Une colonne d’horodatage doit exister dans votre table source pour qu’un flux de données en continu soit créé. La date et l’heure sont requises pour qu’Experience Platform sache quand les données seront ingérées et quand les données incrémentielles seront diffusées en continu. Vous pouvez ajouter rétroactivement une colonne d’horodatage pour une connexion existante et créer un flux de données.
-
Assurez-vous que la casse des champs de données de votre fichier de données source fourni à titre d’exemple est conforme aux instructions de Snowflake relatives à la résolution de casse pour les identifiants. Lisez le Snowflake document sur la casse des identifiants pour plus d’informations.
L’étape Sélectionner des données apparaît. Au cours de cette étape, vous devez sélectionner les données à importer dans Experience Platform, configurer les horodatages et les fuseaux horaires, et fournir un exemple de fichier de données source pour l’ingestion de données brutes.
Utilisez le répertoire de la base de données situé à gauche de l'écran et sélectionnez la table à importer dans Experience Platform.
Sélectionnez ensuite le type de colonne date et heure de votre tableau. Vous pouvez choisir entre deux types de colonnes d’horodatage : TIMESTAMP_NTZ
ou TIMESTAMP_LTZ
. Si vous sélectionnez un type de colonne de TIMESTAMP_NTZ
, vous devez également fournir un fuseau horaire. Vos colonnes doivent avoir une contrainte non nulle. Pour plus d’informations, consultez la section sur les limites et les questions fréquentes.
Vous pouvez également configurer les paramètres de renvoi au cours de cette étape. Le renvoi détermine les données initialement ingérées. Si le renvoi est activé, tous les fichiers actuels du chemin spécifié seront ingérés lors de la première ingestion planifiée. Dans le cas contraire, seuls les fichiers chargés entre la première exécution de l’ingestion et l’heure de début seront ingérés. Les fichiers chargés avant l’heure de début ne seront pas ingérés.
Sélectionnez le bouton (bascule) Renvoyer pour activer le renvoi.
Enfin, sélectionnez Choisir un fichier pour charger un exemple de données source afin de créer le jeu de mappages, qui sera utilisé à une étape ultérieure pour mapper vos données d’origine au modèle de données d’expérience (XDM).
Lorsque vous avez terminé, sélectionnez Suivant pour continuer.
Fournir des détails sur le jeu de données et le flux de données provide-dataset-and-dataflow-details
Ensuite, vous devez fournir des informations sur votre jeu de données et votre flux de données.
Détails du jeu de données dataset-details
Un jeu de données est une structure de stockage et de gestion pour une collection de données, généralement sous la forme d’un tableau, qui contient un schéma (des colonnes) et des champs (des lignes). Les données correctement ingérées par Experience Platform sont conservées sous forme de jeux de données dans le lac de données. Au cours de cette étape, vous pouvez créer un jeu de données ou utiliser un jeu de données existant.
Pour utiliser un nouveau jeu de données, sélectionnez Nouveau jeu de données, puis fournissez un nom et une description facultative pour votre jeu de données. Vous devez également sélectionner un schéma de modèle de données d’expérience (XDM) auquel votre jeu de données adhère.
table 0-row-2 1-row-2 2-row-2 3-row-2 | |
---|---|
Détails du nouveau jeu de données | Description |
Nom du jeu de données de sortie | Nom de votre nouveau jeu de données. |
Description | (Facultatif) Aperçu du nouveau jeu de données. |
Schéma | Liste déroulante des schémas qui existent dans votre organisation. Vous pouvez également créer votre propre schéma avant le processus de configuration de la source. Pour plus d’informations, consultez le guide sur la création d’un schéma XDM dans l’interface utilisateur. |
Si vous disposez déjà d’un jeu de données, sélectionnez Jeu de données existant puis utilisez l’option Recherche avancée pour afficher une fenêtre de tous les jeux de données de votre organisation, y compris leurs détails respectifs, par exemple s’ils sont activés pour l’ingestion dans le profil client en temps réel.
Si votre jeu de données est activé pour le profil client en temps réel, au cours de cette étape, vous pouvez activer/désactiver le jeu de données de profil pour activer vos données pour l’ingestion de profil. Vous pouvez également utiliser cette étape pour activer les diagnostics d’erreur et ingestion partielle.
- Diagnostics d’erreur : sélectionnez Diagnostics d’erreur pour demander à la source de générer des diagnostics d’erreur que vous pourrez référencer ultérieurement lors de la surveillance de l’activité du jeu de données et du statut du flux de données.
- Ingestion partielle : l’ingestion par lots partielle est la possibilité d’ingérer des données contenant des erreurs, jusqu’à un certain seuil configurable. Cette fonctionnalité vous permet d’ingérer toutes vos données exactes dans Experience Platform, tandis que toutes vos données incorrectes sont traitées par lots séparément avec des informations sur les raisons de leur non-validité.
Détails du flux de données dataflow-details
Une fois votre jeu de données configuré, vous devez fournir des détails sur votre flux de données, y compris un nom, une description facultative et des configurations d’alerte.
Experience Platform peut générer des alertes basées sur des événements auxquelles les utilisateurs peuvent s’abonner. Ces options nécessitent un flux de données en cours d’exécution pour les déclencher. Pour plus d’informations, reportez-vous à la présentation des alertes 🔗
- Début d’exécution du flux de données des sources : sélectionnez cette alerte pour recevoir une notification lorsque l’exécution du flux de données commence.
- Succès de l’exécution du flux de données des sources : sélectionnez cette alerte pour recevoir une notification si votre flux de données se termine sans erreur.
- Échec de l’exécution du flux de données des sources : sélectionnez cette alerte pour recevoir une notification si l’exécution de votre flux de données se termine par des erreurs.
Lorsque vous avez terminé, sélectionnez Suivant pour continuer.
Mappage de champs à un schéma XDM mapping
L’étape Mappage apparaît. Utilisez l’interface de mappage pour mapper vos données source aux champs de schéma appropriés avant d’ingérer ces données dans Experience Platform, puis sélectionnez Suivant. Pour obtenir un guide complet sur l’utilisation de l’interface de mappage, consultez le guide de l’interface utilisateur de la préparation des données pour plus d’informations.
Vérifier le flux de données review
La dernière étape du processus de création de flux de données consiste à vérifier votre flux de données avant de l’exécuter. Utilisez l’étape Réviser pour passer en revue les détails de votre nouveau flux de données avant son exécution. Les détails sont regroupés dans les catégories suivantes :
- Connexion : affiche le type de source, le chemin d’accès correspondant au fichier source choisi et le nombre de colonnes au sein de ce fichier source.
- Attribuer des champs de jeu de données et de mappage : affiche le jeu de données dans lequel les données sources sont ingérées, y compris le schéma auquel le jeu de données se conforme.
Une fois que vous avez vérifié votre flux de données, sélectionnez Terminer et patientez quelques instants le temps que le flux de données soit créé.
Étapes suivantes
Ce tutoriel vous a permis de créer un flux de données en continu pour les données Snowflake. Pour obtenir des ressources supplémentaires, consultez la documentation ci-dessous.
Surveiller votre flux de données
Une fois votre flux de données créé, vous pouvez surveiller les données ingérées et afficher les informations relatives au taux d’ingestion, aux succès et aux erreurs. Pour plus d’informations sur la surveillance des flux de données en flux continu, consultez le tutoriel sur la surveillance des flux de données en flux continu dans l’interface utilisateur.
Mettre à jour votre flux de données
Pour mettre à jour les configurations pour la planification, le mappage et les informations générales de vos flux de données, consultez le tutoriel sur la mise à jour des flux de données sources dans l’interface utilisateur.
Supprimer le flux de données
Vous pouvez supprimer les flux de données qui ne sont plus nécessaires ou qui ont été créés de manière incorrecte à l’aide de la fonction Supprimer, disponible dans l’espace de travail Flux de données. Pour plus d’informations sur la suppression des flux de données, consultez le tutoriel sur la suppression de flux de données dans l’interface utilisateur.