[Beta]{class="badge informative"} [Ultimate]{class="badge positive"}
Azure Databricks
-
Källan Azure Databricks är tillgänglig i källkatalogen för användare som har köpt Real-Time CDP Ultimate.
-
Källan Azure Databricks är i betaversion. Läs villkoren i källresursöversikten om du vill ha mer information om hur du använder betatecknade källor.
Azure Databricks är en molnbaserad plattform som utformats för dataanalys, maskininlärning och AI. Du kan använda Databricks för att integrera med Azure och tillhandahålla en helhetsmiljö för att bygga, distribuera och hantera datalösningar i stor skala.
Använd Databricks-källan för att ansluta ditt konto och importera dina Databricks-data till Adobe Experience Platform.
Förhandskrav
Slutför de nödvändiga stegen för att ansluta ditt Databricks-konto till Experience Platform.
Hämta autentiseringsuppgifter för behållaren
Hämta dina inloggningsuppgifter för Experience Platform Azure Blob Storage så att ditt Databricks-konto kan komma åt det senare.
Om du vill hämta dina autentiseringsuppgifter skickar du en GET-begäran till /credentials
-slutpunkten för API:t Connectors.
API-format
GET /data/foundation/connectors/landingzone/credentials?type=dlz_databricks_source
Begäran
Följande begäran hämtar autentiseringsuppgifterna för din Experience Platform Azure Blob Storage.
code language-shell |
---|
|
Svar
Ett lyckat svar ger dina autentiseringsuppgifter (containerName
, SASToken
, storageAccountName
) för senare användning i Apache Spark-konfigurationen för Databricks.
code language-json |
---|
|
table 0-row-2 1-row-2 2-row-2 3-row-2 4-row-2 5-row-2 | |
---|---|
Egenskap | Beskrivning |
containerName |
Namnet på Azure Blob Storage-behållaren. Du kommer att använda det här värdet senare när du slutför din Apache Spark-konfiguration för Databricks. |
SASToken |
Underskriftstoken för delad åtkomst för din Azure Blob Storage. Strängen innehåller all information som krävs för att godkänna en begäran. |
storageAccountName |
Namnet på ditt lagringskonto. |
SASUri |
Den delade åtkomstsignaturens URI för din Azure Blob Storage. Den här strängen är en kombination av URI:n till Azure Blob Storage som du autentiseras mot och dess motsvarande SAS-token. |
expiryDate |
Det datum då din SAS-token upphör att gälla. Du måste uppdatera din token före förfallodatumet för att kunna fortsätta använda den i ditt program för att överföra data till Azure Blob Storage. Om du inte uppdaterar din token manuellt före det angivna förfallodatumet uppdateras den automatiskt och en ny token skapas när GET-inloggningsanropet utförs. |
Uppdatera dina autentiseringsuppgifter
Uppdatera dina autentiseringsuppgifter genom att göra en POST-begäran och inkludera action=refresh
som en frågeparameter.
API-format
POST /data/foundation/connectors/landingzone/credentials?type=dlz_databricks_source&action=refresh
Begäran
Följande begäran uppdaterar autentiseringsuppgifterna för din Azure Blob Storage.
code language-shell |
---|
|
Svar
Ett lyckat svar returnerar dina nya autentiseringsuppgifter.
code language-json |
---|
|
Konfigurera åtkomst till din Azure Blob Storage
-
Om klustret har avslutats startas det om automatiskt under en flödeskörning. Du måste dock se till att klustret är aktivt när du skapar en anslutning eller ett dataflöde. Dessutom måste klustret vara aktivt om du utför åtgärder som dataförhandsgranskning eller utforskning, eftersom dessa åtgärder inte kan föreslå automatisk omstart av ett avslutat kluster.
-
Azure-behållaren innehåller en mapp med namnet
adobe-managed-staging
. Ändra inte den här mappen om du vill att data ska kunna hämtas utan synliga skarvar.
Därefter måste du se till att ditt Databricks-kluster har åtkomst till Experience Platform Azure Blob Storage-kontot. Om du gör det kan du använda Azure Blob Storage som en tillfällig plats för att skriva delta lake tabelldata.
Du måste konfigurera en SAS-token i klustret Databricks som en del av din Apache Spark-konfiguration för att kunna ge åtkomst.
I Databricks-gränssnittet väljer du Advanced options och anger sedan följande i indatarutan Spark config.
fs.azure.sas.{CONTAINER_NAME}.{STORAGE-ACCOUNT}.blob.core.windows.net {SAS-TOKEN}
Om det inte anges misslyckas kopieringsaktiviteten i flödet och följande fel returneras:
Unable to access container '{CONTAINER_NAME}' in account '{STORAGE_ACCOUNT}.blob.core.windows.net' using anonymous credentials. No credentials found in the configuration. Public access is not permitted on this storage account.
Anslut Databricks till Experience Platform
Nu när du har slutfört de nödvändiga stegen kan du nu fortsätta och ansluta ditt Databricks-konto till Experience Platform: