[Beta]{class="badge informative"} [Ultimate]{class="badge positive"}
Databricks
-
A origem Databricks está disponível no catálogo de origens para usuários que compraram o Real-Time CDP Ultimate.
-
A origem Databricks está na versão beta. Leia os termos e condições na visão geral das fontes para obter mais informações sobre como usar fontes com rótulo beta.
Databricks é uma plataforma baseada em nuvem projetada para análise de dados, aprendizado de máquina e IA. Você pode usar o Databricks para integrar e fornecer um ambiente holístico para criar, implantar e gerenciar soluções de dados em escala.
Use a fonte Databricks para conectar sua conta e assimilar os dados do Databricks na Adobe Experience Platform.
Pré-requisitos
Conclua as etapas de pré-requisito para conectar com êxito sua conta do Databricks à Experience Platform.
Recuperar credenciais do container
Recupere as credenciais do Experience Platform Azure Blob Storage para habilitar a conta do Databricks para acessá-la mais tarde.
Para recuperar suas credenciais, faça uma solicitação do GET para o ponto de extremidade /credentials
da API Connectors.
Formato da API
GET /data/foundation/connectors/landingzone/credentials?type=dlz_databricks_source
Solicitação
A solicitação a seguir recupera as credenciais para o Experience Platform Azure Blob Storage.
code language-shell |
---|
|
Resposta
Uma resposta bem-sucedida fornece suas credenciais (containerName
, SASToken
, storageAccountName
) para uso posterior na configuração Apache Spark para Databricks.
code language-json |
---|
|
table 0-row-2 1-row-2 2-row-2 3-row-2 4-row-2 5-row-2 | |
---|---|
Propriedade | Descrição |
containerName |
O nome do seu container Azure Blob Storage. Você usará esse valor posteriormente ao concluir a configuração do Apache Spark para Databricks. |
SASToken |
O token de assinatura de acesso compartilhado para o seu Azure Blob Storage. Esta cadeia de caracteres contém todas as informações necessárias para autorizar uma solicitação. |
storageAccountName |
O nome da sua conta de armazenamento. |
SASUri |
O URI de assinatura de acesso compartilhado para o seu Azure Blob Storage. Esta cadeia de caracteres é uma combinação do URI para o Azure Blob Storage para o qual você está sendo autenticado e seu token SAS correspondente. |
expiryDate |
A data em que o token SAS expirará. Você deve atualizar seu token antes da data de expiração para continuar usando-o em seu aplicativo para carregar dados para o Azure Blob Storage. Se você não atualizar manualmente o token antes da data de expiração declarada, ele será atualizado automaticamente e fornecerá um novo token quando a chamada de credenciais do GET for executada. |
Atualizar suas credenciais
Para atualizar suas credenciais, faça uma solicitação POST e inclua action=refresh
como parâmetro de consulta.
Formato da API
POST /data/foundation/connectors/landingzone/credentials?type=dlz_databricks_source&action=refresh
Solicitação
A solicitação a seguir atualiza as credenciais para o Azure Blob Storage.
code language-shell |
---|
|
Resposta
Uma resposta bem-sucedida retorna suas novas credenciais.
code language-json |
---|
|
Configurar acesso ao seu Azure Blob Storage
-
Se o cluster tiver sido encerrado, o serviço o reiniciará automaticamente durante uma execução de fluxo. No entanto, você deve garantir que seu cluster esteja ativo ao criar uma conexão ou um fluxo de dados. Além disso, seu cluster deverá estar ativo se você estiver executando ações como visualização ou exploração de dados, pois essas ações não podem solicitar a reinicialização automática de um cluster encerrado.
-
O contêiner Azure inclui uma pasta chamada
adobe-managed-staging
. Para garantir a assimilação perfeita de dados, não modifique esta pasta.
Em seguida, verifique se o cluster Databricks tem acesso à conta Azure Blob Storage do Experience Platform. Ao fazer isso, você pode usar Azure Blob Storage como um local temporário para gravar dados da tabela delta lake.
Para fornecer acesso, você deve configurar um token SAS no cluster Databricks como parte de sua configuração Apache Spark.
Na interface Databricks, selecione Advanced options e insira o seguinte na caixa de entrada Spark config.
fs.azure.sas.{CONTAINER_NAME}.{STORAGE-ACCOUNT}.blob.core.windows.net {SAS-TOKEN}
Se não for fornecida, a atividade de cópia na execução do fluxo falhará e retornará o seguinte erro:
Unable to access container '{CONTAINER_NAME}' in account '{STORAGE_ACCOUNT}.blob.core.windows.net' using anonymous credentials. No credentials found in the configuration. Public access is not permitted on this storage account.
Conectar Databricks ao Experience Platform
Agora que você concluiu as etapas de pré-requisito, pode prosseguir e conectar sua conta do Databricks à Experience Platform: