Data Science Workspace tutoriais

A Adobe Experience Platform Data Science Workspace usa o aprendizado de máquina e a inteligência artificial para criar insights de seus dados. Integrado ao Adobe Experience Platform, Data Science Workspace ajuda você a fazer previsões usando seu conteúdo e seus ativos de dados nas soluções de Adobe. Os cientistas de dados de todos os níveis de habilidades têm ferramentas sofisticadas e fáceis de usar que suportam o rápido desenvolvimento, treinamento e ajuste de fórmulas de aprendizado de máquina - todos os benefícios da tecnologia da IA, sem a complexidade.

Para saber mais, comece lendo a visão geral da Data Science Workspace.

Sensei Machine Learning API

A Sensei Machine Learning API fornece um mecanismo para os cientistas de dados organizarem e gerenciarem serviços de aprendizado de máquina, desde a integração de algoritmos até a experimentação e a implantação de serviços.

Os seguintes guias de desenvolvedor de API estão disponíveis:

  • Mecanismos - saiba como procurar seu Docker registro, criar um Mecanismo, criar um Mecanismo de pipeline de recursos, recuperar as informações de um Mecanismo, atualizar um Mecanismo e excluir um Mecanismo.
  • MLInensons (receitas) - saiba como criar uma MLInpresence, recupere as informações de uma MLIntent, atualize uma MLIntent e exclua uma MLInpresence.
  • Experimentos - saiba como criar um Experimento, recuperar um Experimento ou Experimento executa informações, atualizar um Experimento e excluir um Experimento.
  • Modelos - saiba como registrar seu próprio Modelo, recuperar as informações de um Modelo, atualizar um Modelo, excluir um Modelo, criar uma nova transcodificação para um Modelo e recuperar os detalhes de um Modelo transcodificado.
  • MLServices - Saiba como criar um MLService, recuperar as informações de um MLService, atualizar um MLService e excluir um MLService.
  • Insights - saiba como recuperar as informações de um Insight, adicionar um novo Modelo de Insight e recuperar uma lista de métricas padrão para algoritmos.

Para saber mais e obter os valores necessários para executar operações CRUD com a API de aprendizado de máquina do Sensei, visite o guia deintrodução.

How to use JupyterLab Notebooks

JupyterLab é uma interface de usuário baseada na Web para Project Jupyter e é totalmente integrada ao Adobe Experience Platform. Ele fornece um ambiente de desenvolvimento interativo para que os cientistas de dados trabalhem com Jupyter notebooks, código e dados. Este documento fornece uma visão geral de JupyterLab e seus recursos, bem como instruções para executar ações comuns.

Este guia o ajudará a:

  • Acesse e entenda a JupyterLab interface.
  • Entenda as células de código e os kernels disponíveis dentro JupyterLab.
  • Entenda a configuração da GPU e do servidor de memória em Python/R.

Para saber mais, visite o guia do usuário doJupyterLab.

Acesso a dados em notebooks JupyterLab

Atualmente, o JupyterLab na Data Science Workspace suporta notebooks para PythonR, PySpark e Scala. Cada kernel suportado fornece funcionalidades incorporadas que permitem ler dados da plataforma a partir de um conjunto de dados dentro de um notebook. No entanto, o suporte para paginação de dados é limitado a notebooks Python e R. Este guia foca em como usar notebooks JupyterLab para acessar seus dados.

Este guia o ajudará a:

  • Leia, grave e utilize os dados da Plataforma de query usando notebooks Python, R, PySpark ou Scala.
  • Entenda as limitações de leitura de cada tipo de notebook.

Para saber mais, visite o guia do desenvolvedor de acesso aos dados do notebook JupyterLab

Arquivos de origem do pacote para criação de Docker fórmula

Uma Docker imagem permite empacotar um aplicativo com todas as partes de que ele precisa. Isso inclui bibliotecas e outras dependências em um único pacote. A Docker imagem criada é encaminhada para o Azure Container Registry usando as credenciais fornecidas a você durante o fluxo de trabalho de criação da receita.

Este tutorial o ajudará a:

  • Baixe os pré-requisitos necessários para a criação da fórmula.
  • Entenda a criação de modelos Docker baseados.
  • Crie uma Docker imagem para Python, R, PySpark ou Scala (Spark).
  • Obtenha um URL de arquivo Docker de origem.

Para saber mais, siga os arquivos de origem do pacote em um tutorialde fórmula.

Importar uma fórmula

Observação

Este tutorial requer que você tenha um URL de arquivo Docker de origem. Visite os arquivos de origem do pacote em um tutorial de fórmula se você não tiver um URL de arquivo de Docker origem.

Os tutoriais de importação de fórmula fornecem insights sobre como configurar e importar uma receita empacotada. Ao final deste tutorial, você pode criar, treinar e avaliar um Modelo no Adobe Experience Platform Data Science Workspace.

Este tutorial o ajudará a:

  • Crie um conjunto de configurações para uma fórmula.
  • Importe uma fórmula Docker baseada para Python, R, PySpark ou Scala (Spark).

Para saber mais, siga o tutorial de importação de uma interface de usuário de fórmula empacotada ou o tutorial deAPI.

Comboio e avaliação de um modelo

No Adobe Experience Platform Data Science Workspace, um Modelo de aprendizado de máquina é criado pela incorporação de uma Receita existente adequada à intenção do Modelo. O Modelo é então treinado e avaliado para otimizar sua eficiência e eficiência operacional ajustando seus hiperparâmetros associados. As receitas são reutilizáveis, o que significa que vários Modelos podem ser criados e adaptados para fins específicos com uma única Receita.

Este tutorial o ajudará a:

  • Criar um novo modelo.
  • Crie uma execução de treinamento para seu Modelo.
  • Avalie suas execuções de treinamento do Modelo.

Para começar, siga o treinamento e avalie um tutorial da API de modelo ou o tutorial dainterface do usuário.

Otimizar um modelo usando a estrutura do Model Insights

O Model Insights Framework fornece ao cientista de dados ferramentas no Adobe Experience Platform Data Science Workspace para fazer escolhas rápidas e informadas para modelos ideais de aprendizado de máquina com base em experimentos. A estrutura melhorará a velocidade e a eficácia do fluxo de trabalho de aprendizado de máquina, bem como a facilidade de uso para cientistas de dados. Isso é feito fornecendo um modelo padrão para cada tipo de algoritmo de aprendizado da máquina para auxiliar no ajuste do modelo. O resultado final permite que cientistas de dados e cientistas de dados cidadãos tomem decisões de otimização de modelos melhores para seus clientes finais.

Este tutorial o ajudará a:

  • Configure o código da fórmula.
  • Defina métricas personalizadas.
  • Use métricas de avaliação e gráficos de visualização pré-criados.

Para começar, siga o tutorial sobre como otimizar um modelo.

Pontuar um modelo

A pontuação no Adobe Experience Platform Data Science Workspace pode ser alcançada com a alimentação de dados de entrada em um Modelo treinado existente. Os resultados da pontuação são armazenados e visualizáveis em um conjunto de dados de saída especificado como um novo lote.

Este tutorial o ajudará a:

  • Criar uma nova execução de pontuação.
  • Visualização nos resultados da pontuação.

Para começar, siga a pontuação de um tutorial da API de modelo ou o tutorial dainterface do usuário.

Publicar um modelo como um serviço

A Adobe Experience Platform Data Science Workspace permite que você publique seu Modelo como um serviço, permitindo que os usuários na organização IMS pontuem dados sem a necessidade de criar seus próprios Modelos. Isso pode ser feito usando a interface do Platform usuário ou a Sensei Machine Learning API.

Este tutorial o ajudará a:

  • Publicar um modelo como um serviço.
  • Pontuação de dados usando um serviço por meio da Galeria Platform de serviços.

Para começar, siga o tutorial de publicação de um modelo como uma API de serviço ou o tutorial dainterface do usuário.

Agendar treinamento e pontuação para um Modelo

A Adobe Experience Platform Data Science Workspace permite que você configure execuções programadas de pontuação e treinamento em um serviço de aprendizado de máquina. Automatizar o processo de treinamento e pontuação pode ajudar a manter e melhorar a eficiência de um serviço ao longo do tempo, acompanhando os padrões em seus dados.

Este tutorial o ajudará a:

  • Configurar pontuação programada
  • Configurar treinamento agendado

Para começar, siga o cronograma de um tutorialde interface de usuário modelo.

Criar um pipeline de recursos

Observação

Atualmente, os pipelines de recursos estão disponíveis somente por meio da API.

A Adobe Experience Platform permite que você crie e crie pipelines de recursos personalizados para executar engenharia de recursos em escala pelo Sensei Machine Learning Framework Runtime.

Este guia o ajudará a:

  • Implementar classes de pipeline de recursos.
  • Crie um mecanismo de pipeline de recursos usando a API.

Para saber mais, visite o tutorial para criar um pipelinede recursos.

Criar um Real-Time Machine Learning aplicativo (alfa)

Uma combinação de computação ininterrupta no Hub e no Hub reduz Edge drasticamente a latência tradicionalmente envolvida na potencialização de experiências hiper-personalizadas relevantes e responsivas. Assim, Real-time Machine Learning fornece inferências com uma latência incrivelmente baixa para a tomada de decisões síncrona. Os exemplos incluem a renderização de conteúdo personalizado da página da Web, a criação de uma oferta e descontos para reduzir a taxa de processamento enquanto aumentam as conversões em uma loja da Web.

Este guia o ajudará a:

  • Entenda a Real-time Machine Learning arquitetura.
  • Entenda o Real-time Machine Learning fluxo de trabalho.
  • Entenda a funcionalidade atual para Real-time Machine Learning.
  • Forneça as próximas etapas para criar suas próprias etapas Real-time Machine Learning model.

Para saber mais, visite a visão geral de aprendizado de máquina em temporeal.

Nesta página