[Beta]{class="badge informative"} [Ultimate]{class="badge positive"}
Azure Databricks
-
De Azure Databricks -bron is in de broncatalogus beschikbaar voor gebruikers die Real-Time CDP Ultimate hebben aangeschaft.
-
De bron Azure Databricks is in bèta. Lees de termijnen en voorwaardenin het bronoverzicht voor meer informatie bij het gebruiken van bèta-geëtiketteerde bronnen.
Azure Databricks is een op de cloud gebaseerd platform dat is ontworpen voor gegevensanalyse, leren van machines en AI. U kunt Databricks gebruiken om met Azure te integreren en een holistische omgeving te verstrekken voor de bouw van, het opstellen van, en het beheren van gegevensoplossingen op schaal.
Gebruik de Databricks -bron om uw account te verbinden en uw Databricks -gegevens in te voeren op Adobe Experience Platform.
Vereisten
Voer de vereiste stappen uit om uw Databricks -account met Experience Platform te verbinden.
De gegevens van de container ophalen
Haal uw Experience Platform Azure Blob Storage -gegevens op zodat uw Databricks -account deze later kan openen.
Als u uw referenties wilt ophalen, vraagt u GET het /credentials
-eindpunt van de Connectors API aan.
API formaat
GET /data/foundation/connectors/landingzone/credentials?type=dlz_databricks_source
Verzoek
Met het volgende verzoek worden de gegevens voor uw Experience Platform Azure Blob Storage opgehaald.
code language-shell |
---|
|
Reactie
Een succesvol antwoord biedt uw referenties ( containerName
, SASToken
, storageAccountName
) voor toekomstig gebruik in Apache Spark configuration for Databricks .
code language-json |
---|
|
table 0-row-2 1-row-2 2-row-2 3-row-2 4-row-2 5-row-2 | |
---|---|
Eigenschap | Beschrijving |
containerName |
De naam van de Azure Blob Storage -container. Deze waarde wordt later gebruikt wanneer u de Apache Spark -configuratie voor Databricks voltooit. |
SASToken |
Het token voor gedeelde toegangshandtekeningen voor uw Azure Blob Storage . Deze tekenreeks bevat alle informatie die nodig is om een aanvraag te autoriseren. |
storageAccountName |
De naam van uw opslagaccount. |
SASUri |
De URI voor de gedeelde toegangshandtekening voor uw Azure Blob Storage . Deze tekenreeks is een combinatie van de URI naar de Azure Blob Storage waarnaar u wordt geverifieerd en de bijbehorende SAS-token. |
expiryDate |
De datum waarop uw SAS-token verloopt. U moet uw token vernieuwen vóór de vervaldatum om deze te kunnen blijven gebruiken in uw toepassing voor het uploaden van gegevens naar de Azure Blob Storage . Als u uw token niet handmatig vernieuwt vóór de opgegeven vervaldatum, wordt deze automatisch vernieuwd en wordt er een nieuw token weergegeven wanneer de aanroep van de GET-gebruikersgegevens wordt uitgevoerd. |
Uw referenties vernieuwen
Als u uw referenties wilt vernieuwen, moet u een POST-aanvraag indienen en action=refresh
opnemen als een queryparameter.
API formaat
POST /data/foundation/connectors/landingzone/credentials?type=dlz_databricks_source&action=refresh
Verzoek
In het volgende verzoek worden de referenties voor uw Azure Blob Storage vernieuwd.
code language-shell |
---|
|
Reactie
Met een succesvol antwoord worden uw nieuwe referenties geretourneerd.
code language-json |
---|
|
Toegang tot uw Azure Blob Storage configureren
-
Als uw cluster is beëindigd, zal de dienst automatisch het tijdens een stroomlooppas opnieuw beginnen. U moet er echter voor zorgen dat uw cluster actief is wanneer u een verbinding of een gegevensstroom maakt. Bovendien moet uw cluster actief zijn als u handelingen uitvoert zoals gegevensvoorvertoning of exploratie, aangezien deze handelingen niet tot gevolg kunnen hebben dat een afgesloten cluster automatisch opnieuw wordt opgestart.
-
De Azure -container bevat een map met de naam
adobe-managed-staging
. Om de naadloze opname van gegevens te verzekeren, wijzigt deze omslag niet.
Vervolgens moet u ervoor zorgen dat uw Databricks -cluster toegang heeft tot de Experience Platform Azure Blob Storage -account. Hierbij kunt u Azure Blob Storage gebruiken als tussentijdse locatie voor het schrijven van delta lake -tabelgegevens.
Als u toegang wilt bieden, moet u een SAS-token configureren in de Databricks -cluster als onderdeel van uw Apache Spark -configuratie.
Selecteer Advanced options in de interface van Databricks en voer vervolgens het volgende in het invoervak Spark config in.
fs.azure.sas.{CONTAINER_NAME}.{STORAGE-ACCOUNT}.blob.core.windows.net {SAS-TOKEN}
Verbinden Databricks met Experience Platform
Nu u de vereiste stappen hebt uitgevoerd, kunt u nu doorgaan en uw Databricks -account verbinden met Experience Platform: