Treinar e avaliar um modelo na interface do usuário do Espaço de trabalho de ciência de dados
No Espaço de trabalho de ciência de dados do Adobe Experience Platform, um modelo de aprendizado de máquina é criado ao incorporar uma fórmula existente que é apropriada para a intenção do modelo. O modelo é então treinado e avaliado para otimizar sua eficiência operacional e eficácia ajustando seus Hiperparâmetros associados. As receitas são reutilizáveis, o que significa que vários Modelos podem ser criados e personalizados para fins específicos com uma única Fórmula.
Este tutorial percorre as etapas para criar, treinar e avaliar um Modelo.
Introdução
Para concluir este tutorial, você deve ter acesso a Experience Platform. Se você não tiver acesso a uma organização no Experience Platform, entre em contato com o administrador do sistema antes de continuar.
Este tutorial requer uma fórmula existente. Se você não tiver uma fórmula, siga as instruções Importar uma fórmula empacotada na interface do usuário tutorial antes de continuar.
Criar um modelo
No Experience Platform, selecione a variável Modelos localizada na navegação à esquerda e, em seguida, selecione a guia procurar para visualizar seus Modelos existentes. Selecionar Criar modelo Próximo à parte superior direita da página para iniciar um processo de criação de Modelo.
Navegue pela lista de receitas existentes, localize e selecione a fórmula a ser usada para criar o modelo e selecione Próxima.
Selecione um conjunto de dados de entrada apropriado e selecione Próxima. Isso definirá o conjunto de dados de treinamento de entrada padrão para o Modelo.
Forneça um nome para o Modelo e revise as configurações padrão do Modelo. As configurações padrão foram aplicadas durante a criação da fórmula, revise e modifique os valores de configuração clicando duas vezes nos valores.
Para fornecer um novo conjunto de configurações, selecione Carregar nova configuração e arraste um arquivo JSON contendo configurações de modelo para a janela do navegador. Selecionar Concluir para criar o Modelo.
Criar uma execução de treinamento
No Experience Platform, selecione a variável Modelos localizada na navegação à esquerda e, em seguida, selecione a guia procurar para visualizar seus Modelos existentes. Localize e selecione o hiperlink anexado ao nome do Modelo que deseja treinar.
Todas as execuções de treinamento existentes com seus status de treinamento atuais são listadas. Para modelos criados usando o Data Science Workspace uma execução de treinamento é gerada e executada automaticamente usando as configurações padrão e o conjunto de dados de treinamento de entrada.
Crie uma nova execução de treinamento selecionando Treinamento próximo à parte superior direita da página Visão geral do modelo.
Selecione o conjunto de dados de entrada de treinamento para a execução de treinamento e selecione Próxima.
As configurações padrão fornecidas durante a criação do Modelo são mostradas, alteradas e modificadas de acordo clicando duas vezes nos valores. Selecionar Concluir para criar e executar o treinamento.
Avaliar o modelo
No Experience Platform, selecione a variável Modelos localizada na navegação à esquerda e, em seguida, selecione a guia procurar para visualizar seus Modelos existentes. Localize e selecione o hiperlink anexado ao nome do Modelo que deseja avaliar.
Todas as execuções de treinamento existentes com seus status de treinamento atuais são listadas. Com várias execuções de treinamento concluídas, as métricas de avaliação podem ser comparadas entre diferentes execuções de treinamento no gráfico Avaliação de modelo. Selecione uma métrica de avaliação usando a lista suspensa acima do gráfico.
A métrica Erro Percentual Absoluto Médio (MAPE) expressa a precisão como uma porcentagem do erro. Isso é usado para identificar o experimento com melhor desempenho. Quanto mais baixo o MAPE, melhor.
A métrica "Precisão" descreve a porcentagem de Instâncias relevantes em comparação com o total recuperado Instâncias. A precisão pode ser vista como a probabilidade de um resultado selecionado aleatoriamente estar correto.
Selecionar uma execução de treinamento específica fornece os detalhes dessa execução abrindo a página de avaliação. Isso pode ser feito antes mesmo da execução ser concluída. Na página de avaliação, é possível ver outras métricas de avaliação, parâmetros de configuração e visualizações específicas para a execução do treinamento.
Você também pode baixar logs de atividades para ver os detalhes da execução. Os logs são particularmente úteis para execuções com falha para ver o que deu errado.
Hiperparâmetros não podem ser treinados e um modelo deve ser otimizado testando combinações diferentes de Hiperparâmetros. Repita este processo de treinamento e avaliação do modelo até chegar a um modelo otimizado.
Próximas etapas
Este tutorial guiou você pela criação, treinamento e avaliação de um Modelo no Data Science Workspace. Depois de chegar a um modelo otimizado, você pode usar o modelo treinado para gerar insights seguindo o Pontuação de um modelo na interface do tutorial.
Referência reference
Configurações de Receita de Venda de Varejo
Os hiperparâmetros determinam o comportamento de treinamento do modelo. Modificar os hiperparâmetros afetará a precisão e a precisão do modelo:
Parâmetros adicionais determinam as propriedades técnicas do modelo:
ACP_DSW_INPUT_FEATURES
ACP_DSW_TARGET_FEATURES
ACP_DSW_FEATURE_UPDATE_SUPPORT
tenantId
ACP_DSW_TRAINING_XDM_SCHEMA
evaluation.labelColumn
evaluation.metrics
ACP_DSW_SCORING_RESULTS_XDM_SCHEMA