Nesta lição, você assimilará dados em lote no Experience Platform usando vários métodos.
A assimilação de dados em lote permite assimilar uma grande quantidade de dados no Adobe Experience Platform de uma só vez. Você pode assimilar dados em lote de uma vez por upload na interface do Platform ou usando a API. Você também pode configurar carregamentos em lote regularmente agendados de serviços de terceiros, como serviços de armazenamento em nuvem, usando conectores de origem.
Engenheiros de dados O precisará assimilar dados de lote fora deste tutorial.
Antes de começar os exercícios, assista a este breve vídeo para saber mais sobre a assimilação de dados:
No Configurar permissões lição, configure todos os controles de acesso necessários para concluir esta lição.
Você precisará acessar um servidor (S)FTP ou uma solução de armazenamento em nuvem para o exercício Fontes . Há uma solução alternativa se você não tiver uma.
Os dados podem ser carregados diretamente em um conjunto de dados na tela de conjuntos de dados em formatos JSON e parquet. Essa é uma ótima maneira de testar a assimilação de alguns de seus dados após criar um
Primeiro, obtenha os dados de amostra e personalize-os para seu locatário:
Os dados contidos na variável luma-data.zip O ficheiro é fictício e deve ser utilizado apenas para fins de demonstração.
Baixar luma-data.zip para Ativos do tutorial do Luma pasta.
Descompacte o arquivo, criando uma pasta chamada luma-data
que contém os quatro arquivos de dados que usaremos nesta lição
Abrir luma-loyalty.json
em um editor de texto e substitua todas as instâncias de _techmarketingdemos
com sua própria id de locatário do underscore, conforme visto em seus próprios schemas:
Salve o arquivo atualizado
Na interface do usuário da Plataforma, selecione Conjuntos de dados na navegação à esquerda
Abra seu Luma Loyalty Dataset
Role para baixo até ver a variável Adicionar dados na coluna direita
Faça upload do luma-loyalty.json
arquivo.
Depois que o arquivo for carregado, uma linha para o lote será exibida
Se você recarregar a página após alguns minutos, verá que o lote foi carregado com êxito com 1000 registros e 1000 fragmentos de perfil.
Há algumas opções, Diagnóstico de erros e Ingestão parcial, que você verá em várias telas nesta lição. Essas opções não são abordadas no tutorial. Algumas informações rápidas:
Há algumas maneiras de confirmar se os dados foram assimilados com êxito.
Para confirmar que os dados foram assimilados no conjunto de dados:
Na mesma página em que os dados foram assimilados, selecione o Visualizar conjunto de dados botão no canto superior direito
Selecione o Visualizar e você poderá ver alguns dos dados assimilados.
Para confirmar que os dados chegaram ao Perfil (pode levar alguns minutos para que os dados sejam encaminhados):
Ir para Perfis na navegação à esquerda
Selecione o ícone ao lado do Selecionar namespace de identidade campo para abrir o modal
Selecione seu Luma Loyalty Id
namespace
Em seguida, insira um dos loyaltyId
valores do seu conjunto de dados, 5625458
Selecionar Exibir
Se você se inscreveu em eventos de assimilação de dados na lição anterior, verifique o URL exclusivo do webhook.site. Você deve ver três solicitações exibidas na seguinte ordem, com algum tempo entre elas, com o seguinte eventCode
valores:
ing_load_success
—lote ingeridoig_load_success
—o lote foi assimilado no gráfico de identidadeps_load_success
—o lote foi assimilado no serviço de perfilConsulte a documentação para obter mais detalhes sobre as notificações.
Agora vamos fazer upload de dados usando a API.
Os arquitetos de dados podem fazer upload dos dados do CRM por meio do método da interface do usuário.
Luma Tutorial Assets
pasta.luma-crm.json
em um editor de texto e substitua todas as instâncias de _techmarketingdemos
com sua própria id de locatário do underscore, como visualizado em seus esquemasPrimeiro, obtemos a id do conjunto de dados no qual queremos assimilar dados:
tenant
200 OK
responseLuma CRM Dataset
do corpo de respostaAgora podemos criar um lote no conjunto de dados:
Baixar API de assimilação de dados.postman_collection.json para Luma Tutorial Assets
pasta
Importe a coleção para Postman
Selecionar a solicitação Data Ingestion API > Batch Ingestion > Create a new batch in Catalog Service.
Cole o seguinte como o Corpo do pedido, substituição do valor do conjunto de dadosId por seu próprio:
{
"datasetId":"REPLACE_WITH_YOUR_OWN_DATASETID",
"inputFormat": {
"format": "json"
}
}
Selecione o Enviar botão
Você deve obter uma resposta 201 Created contendo a id do novo lote!
Copie o id
do novo lote
Agora podemos fazer upload dos dados no lote:
Selecionar a solicitação Data Ingestion API > Batch Ingestion > Upload a file to a dataset in a batch.
No Params , insira a id do conjunto de dados e a id do lote em seus respectivos campos
No Params guia , digite luma-crm.json
como filePath
No Corpo selecione a guia binário opção
Selecione o download luma-crm.json
do local Luma Tutorial Assets
pasta
Selecionar Enviar e você deve obter uma resposta 200 OK com '1' no corpo da resposta
Neste ponto, se você observar seu lote na interface do usuário da plataforma, verá que ele está em um "Carregamento" status:
Como a API em lote é frequentemente usada para carregar vários arquivos, é necessário informar à Platform quando um lote é concluído, o que faremos na próxima etapa.
Para concluir o lote:
Selecionar a solicitação Data Ingestion API > Batch Ingestion > Finish uploading a file to a dataset in a batch.
No Params guia , digite COMPLETE
como ação
No Params , insira a id do lote. Não se preocupe com a ID do conjunto de dados ou com o filePath, se estiverem presentes.
Certifique-se de que o URL do POST seja https://platform.adobe.io/data/foundation/import/batches/:batchId?action=COMPLETE
e que não há referências desnecessárias ao datasetId
ou filePath
Selecionar Enviar e você deve obter uma resposta 200 OK com '1' no corpo da resposta
Valide se os dados chegaram na interface do usuário da Plataforma da mesma forma que aconteceu com o conjunto de dados de Fidelidade.
Primeiro, confirme se o lote mostra que 1000 registros assimilaram:
Em seguida, confirme o lote usando o conjunto de dados de Visualização:
Por fim, confirme se um de seus perfis foi criado pesquisando um dos perfis pelo Luma CRM Id
namespace, por exemplo 112ca06ed53d3db37e4cea49cc45b71e
Há uma coisa interessante que aconteceu e que eu quero destacar. Abra o Danny Wright
perfil. O perfil tem uma Lumacrmid
e Lumaloyaltyid
. Lembre-se do Luma Loyalty Schema
continha dois campos de identidade, ID da Fidelidade do Luma e ID do CRM. Agora que carregamos ambos os conjuntos de dados, eles foram mesclados em um único perfil. Os dados de fidelidade tinham Daniel
como o nome e "Nova York" como endereço residencial, enquanto os dados do CRM tinham Danny
como nome e Portland
como o endereço residencial do cliente com a mesma ID de fidelidade. Voltaremos ao motivo pelo qual o nome é exibido Danny
na lição sobre políticas de mesclagem.
Parabéns, você acabou de unir perfis!
Se você se inscreveu em eventos de assimilação de dados na lição anterior, verifique o URL exclusivo do webhook.site. Você deve ver três solicitações entrando, assim como com os dados de fidelidade:
Consulte a documentação para obter mais detalhes sobre as notificações.
Vamos analisar outra maneira de fazer upload de dados. O recurso de fluxos de trabalho permite assimilar dados CSV que ainda não foram modelados no XDM.
Luma Tutorial Assets
pasta.luma-products.csv
Agora vamos configurar o workflow:
Luma Product Catalog Dataset
e selecione o Próximo botãoluma-products.csv
e selecione o Próximo botãoluma-products.csv
para campos XDM no esquema de destino. No nosso exemplo, os nomes das colunas estão próximos o suficiente dos nomes dos campos do esquema que o mapeador pode detectar automaticamente o mapeamento correto! Se o mapeador não conseguisse detectar automaticamente o campo direito, você selecionaria o ícone à direita do campo de destino para selecionar o campo XDM correto. Além disso, se você não quiser assimilar uma das colunas do CSV, poderá excluir a linha do mapeador. Sinta-se à vontade para reproduzir e alterar cabeçalhos de coluna na luma-products.csv
para se familiarizar com o funcionamento do mapeador.Quando o lote tiver carregado, verifique o upload visualizando o conjunto de dados.
Como a variável Luma Product SKU
for um namespace que não seja de pessoas, não veremos nenhum perfil para as SKUs do produto.
Você deve ver as três ocorrências no seu webhook.
Ok, você fez as coisas da maneira mais difícil. Agora vamos nos mudar para a terra prometida de automatizado ingestão em lote! Quando eu digo, "DEFINA!" você diz: "ESQUEÇA!" "DEFINA!" "ESQUEÇA!" "DEFINA!" "ESQUEÇA!" Só brincando, você nunca faria tal coisa! Ok, de volta ao trabalho. Você está quase pronto.
Ir para Fontes no painel de navegação esquerdo para abrir o catálogo de Fontes. Aqui você verá várias integrações prontas para uso com os provedores líderes do setor de dados e armazenamento.
Ok, vamos assimilar dados usando um conector de origem.
Esse exercício será um estilo de aventura. Vou mostrar o workflow usando o conector de origem FTP. Você pode usar um conector de origem do Armazenamento na nuvem diferente usado em sua empresa ou fazer upload do arquivo json usando a interface do usuário do conjunto de dados, como fizemos com os dados de fidelidade.
Muitas das Fontes têm um fluxo de trabalho de configuração semelhante, no qual você:
Os dados de Compra offline que usaremos neste exercício contêm dados de data e hora. Os dados de data e hora devem estar em Strings formatadas ISO 8061 ("2018-07-10T15:05:59.000-08:00") ou Tempo Unix formatado em milissegundos (1531263959000) e são convertidos no momento da assimilação para o tipo XDM de destino. Para obter mais informações sobre conversão de dados e outras restrições, consulte a documentação da API de assimilação em lote.
Luma Tutorial Assets
pasta.luma-offline-purchases.json
em um editor de texto e substitua todas as instâncias de _techmarketingdemos
com sua própria id de locatário do underscore, como visualizado em seus esquemas"timestamp":"2022-06
e substituir o ano e o mês)luma-offline-purchases.json
para um local no seu provedor de armazenamento em nuvem preferidoNa interface do usuário da Platform, filtre o Fontes catálogo para armazenamento na nuvem
Observe que há links convenientes para a documentação na seção ...
Na caixa de seu fornecedor preferencial de armazenamento em nuvem, selecione o Configurar botão
Autenticação é o primeiro passo. Insira o nome da sua conta, por exemplo Luma's FTP Account
e seus detalhes de autenticação. Essa etapa deve ser bastante semelhante para todas as fontes de armazenamento em nuvem, embora os campos possam variar um pouco. Depois de ter inserido os detalhes de autenticação de uma conta, você pode reutilizá-los em outras conexões de origem que podem estar enviando dados diferentes em agendamentos diferentes de outros arquivos na mesma conta
Selecione o Botão Conectar-se à origem
Quando a Plataforma tiver se conectado com êxito à Origem, selecione a variável Próximo botão
No Selecionar dados , a interface do usuário usará suas credenciais para abrir a pasta na solução de armazenamento da nuvem
Selecione os arquivos que deseja assimilar, por exemplo luma-offline-purchases.json
Como Formato dos dados, selecione XDM JSON
Em seguida, você pode visualizar a estrutura json e os dados de amostra no arquivo
Selecione o Próximo botão
No Mapeamento selecione seu Luma Offline Purchase Events Dataset
e selecione o Próximo botão. Observe na mensagem que, como os dados que estamos assimilando são um arquivo JSON, não há uma etapa de mapeamento em que mapeamos o campo de origem para o campo de destino. Os dados JSON já devem estar no XDM. Se você estivesse assimilando um CSV, veria a interface completa do usuário de mapeamento nesta etapa:
No Agendamento , escolha a frequência com que deseja assimilar dados da Fonte. Reserve um momento para ver as opções. Vamos apenas fazer uma ingestão única, então deixe o Frequência on Uma vez e selecione o Próximo botão:
No Detalhes do fluxo de dados , você pode escolher um nome para o fluxo de dados, inserir uma descrição opcional, ativar o diagnóstico de erros e a assimilação parcial. Deixe as configurações como estão e selecione o Próximo botão:
No Revisão , é possível revisar todas as configurações e editá-las ou selecionar a Concluir botão
Depois de salvar, você será direcionado para uma tela como esta:
Quando o lote tiver carregado, verifique o upload visualizando o conjunto de dados.
Você deve ver as três ocorrências no seu webhook.
Procure o perfil com valor 5625458
no loyaltyId
namespace novamente para ver se há eventos de compra em seu perfil. Você deve ver uma compra. Você pode acessar os detalhes da compra selecionando Exibir JSON:
A Adobe faz parceria com vários fornecedores de ETL para dar suporte à assimilação de dados no Experience Platform. Devido à variedade de fornecedores de terceiros, o ETL não é abordado neste tutorial, embora você seja bem-vindo a revisar alguns desses recursos:
Agora vamos dados de fluxo usando o SDK da Web