Treinar e avaliar um modelo na interface do usuário do Data Science Workspace
No Adobe Experience Platform Data Science Área de trabalho, um Modelo de aprendizagem de máquina é criado incorporando uma Receita existente que é apropriada para a intenção do Modelo. O modelo é então treinado e avaliado para otimizar sua eficiência operacional e eficácia, ajustando seus hiperparameters associados. As receitas são reutilizáveis, o que significa que vários Modelos podem ser criados e adaptados a propósitos específicos com uma única receita.
Este tutorial percorre as etapas para criar, treinar e avaliar um Modelo.
Introdução
No solicitar para concluir esta tutorial, você deve ter acesso a Experience Platform. Se você não tiver acesso a uma organização no Experience Platform, fale com o administrador do sistema antes de continuar.
Esta tutorial requer uma Receita existente. Se você não tiver uma Receita, seguir a Importar uma Receita embalada na interface tutorial antes de continuar.
Criar um modelo
Em Experience Platform, selecione os Modelos guia localizados na navegação esquerda e selecione a guia de navegação para visualização seus Modelos existentes. Selecione Criar modelo próximo à parte superior direita da página para iniciar um processo de criação de modelo.
Navegue pela lista de Receitas existentes, localize e selecione a Receita a ser usada para criar o Modelo e selecione Próximo.
Selecione um conjunto de dados de entrada apropriado e selecione Próximo. Isso definirá o conjunto de dados de treinamento de entrada padrão para o Modelo.
Forneça um nome para o Modelo e revise as configurações padrão do Modelo. As configurações padrão foram aplicadas durante a criação da fórmula, revise e modifique os valores de configuração clicando duas vezes nos valores.
Para fornecer um novo conjunto de configurações, selecione Carregar nova configuração e arraste um arquivo JSON contendo configurações de modelo para a janela do navegador. Selecione Concluir para criar o modelo.
Criar uma execução de treinamento
No Experience Platform, selecione a guia Modelos, localizada na navegação à esquerda, e selecione a guia Procurar para exibir seus Modelos existentes. Localize e selecione o hiperlink anexado ao nome do Modelo que deseja treinar.
Todas as execuções de treinamento existentes com seus status de treinamento atuais são listadas. Para modelos criados usando a interface do Data Science Workspace usuário, uma treinamento execução é gerada e executada automaticamente usando as configurações padrão e os treinamento conjunto de dados de entrada.
Criar um novo treinamento executado selecionando Train perto do canto superior direito da visão geral do Modelo página.
Selecione o treinamento conjunto de dados de entrada para a execução do treinamento e selecione Próximo.
As configurações padrão fornecidas durante a criação do Modelo são mostradas, alteram e modificá-las adequadamente ao clicar duplo os valores. Selecione Concluir para criar e executar a treinamento execução.
Avaliar o modelo
No Experience Platform, selecione a guia Modelos, localizada na navegação à esquerda, e selecione a guia Procurar para exibir seus Modelos existentes. Encontre e selecione o hiperlink anexado ao nome do modelo que deseja avaliar.
Todas as treinamento existentes são executadas com os status treinamento atuais são listadas. Com várias treinamento corridas concluídas, as métricas de avaliação podem ser comparadas em diferentes treinamento de execução no gráfico de avaliação do Modelo. Selecione uma métrica de avaliação usando a lista suspensa acima do gráfico.
A métrica Erro Percentual Absoluto Médio (MAPE) expressa a precisão como uma porcentagem do erro. Isso é usado para identificar o experimento com melhor desempenho. Quanto mais baixo o MAPE, melhor.
A métrica "Precisão" descreve a porcentagem de Instâncias relevantes em comparação com o total de Instâncias recuperadas. A precisão pode ser vista como a probabilidade de um resultado selecionado aleatoriamente estar correto.
Selecionar uma treinamento execução específica fornece os detalhes da execução abrindo o página de avaliação. Isso pode ser feito antes mesmo da execução ser concluída. Na página de avaliação, é possível ver outras métricas de avaliação, parâmetros de configuração e visualizações específicas para a execução do treinamento.
Você também pode baixar logs de atividades para ver os detalhes da execução. Os logs são particularmente úteis para execuções com falha para ver o que deu errado.
Hiperparâmetros não podem ser treinados e um modelo deve ser otimizado testando combinações diferentes de Hiperparâmetros. Repita esse processo de treinamento e avaliação de modelo até chegar a um Modelo otimizado.
Próximas etapas
Isso tutorial o orientava a criar, treinamento e avaliar um modelo em Data Science Workspace. Depois de chegar a um Modelo otimizado, você pode usar o Modelo treinado para gerar insights seguindo a Pontuação de um Modelo no interface tutorial.
Referência reference
Configurações de Receita de Venda de Varejo
Os hiperparâmetros determinam o comportamento de treinamento do modelo. Modificar os hiperparâmetros afetará a precisão e a precisão do modelo:
Parâmetros adicionais determinam as propriedades técnicas do modelo:
ACP_DSW_INPUT_FEATURES
ACP_DSW_TARGET_FEATURES
ACP_DSW_FEATURE_UPDATE_SUPPORT
tenantId
ACP_DSW_TRAINING_XDM_SCHEMA
evaluation.labelColumn
evaluation.metrics
ACP_DSW_SCORING_RESULTS_XDM_SCHEMA