[Beta]{class="badge informative"}

Configuration des solutions natives Data Warehouse

AVAILABILITY
La fonctionnalité décrite dans cet article se trouve dans la phase de test limité de la publication et peut ne pas encore être disponible dans votre environnement. Cette note sera supprimée lorsque la fonctionnalité sera disponible. Pour plus d’informations sur le processus de mise à jour de Customer Journey Analytics, consultez Mises à jour des fonctionnalités de Customer Journey Analytics.

Pour prendre en charge Experience Platform Data Mirror for Customer Journey Analytics, les données que vous souhaitez utiliser à partir des trois solutions natives d’entrepôt de données prises en charge (Azure Databricks, Google BigQuery, Snowflake) doivent être activées pour la capture de données de modification.

Azure Databricks

Activez modifier le flux de données dans vos tableaux de Azure Databricks pour utiliser la capture de données de modification dans votre connexion source.

Utilisez les commandes suivantes pour activer la modification du flux de données sur vos tableaux :

Nouveau tableau

Pour appliquer le flux de données de modification à un nouveau tableau, vous devez définir la propriété de tableau delta.enableChangeDataFeed sur TRUE dans la commande CREATE TABLE.

CREATE TABLE student (id INT, name STRING, age INT) TBLPROPERTIES (delta.enableChangeDataFeed = true)

Table existante

Pour appliquer le flux de données de modification à un tableau existant, vous devez définir la propriété de tableau delta.enableChangeDataFeed sur TRUE dans la commande ALTER TABLE.

ALTER TABLE myDeltaTable SET TBLPROPERTIES (delta.enableChangeDataFeed = true)

Toutes les nouvelles tables

Pour appliquer le flux de données de modification à tous les nouveaux tableaux, vous devez définir vos propriétés par défaut sur TRUE.

set spark.databricks.delta.properties.defaults.enableChangeDataFeed = true;

Pour plus d’informations, consultez le guide Azure Databricks sur l’activation du flux de données de modification.

Lisez la documentation suivante pour savoir comment activer la capture de données de modification pour votre connexion source Azure Databricks :

Google BigQuery

Pour utiliser la capture de données de modification dans votre connexion source Google BigQuery, accédez à la page Google BigQuery dans la console Google Cloud et définissez enable_change_history sur TRUE. Cette propriété active l'historique des modifications de votre tableau de données.

Pour plus d’informations, consultez le guide sur les instructions de langage de définition de données dans ​ GoogleSQL.

Lisez la documentation suivante pour savoir comment activer la capture de données de modification pour votre connexion source Google BigQuery :

Snowflake

Activez le suivi des modifications dans vos tables Snowflake pour utiliser la capture de données de modification dans vos connexions source.

Dans Snowflake, activez le suivi des modifications à l’aide de l’ALTER TABLE et définissez CHANGE_TRACKING sur TRUE.

ALTER TABLE mytable SET CHANGE_TRACKING = TRUE

Pour plus d’informations, consultez le guide Snowflake sur l’utilisation de la clause de modification ​.

Lisez la documentation suivante pour savoir comment activer la capture de données de modification pour votre connexion source Snowflake :

recommendation-more-help
080e5213-7aa2-40d6-9dba-18945e892f79