Entrenar y evaluar un modelo en la interfaz de usuario de Data Science Workspace
En Adobe Experience Platform Espacio de trabajo de ciencia de datos, se crea un modelo de aprendizaje automático mediante la incorporación de una fórmula existente que es adecuada para la intención del modelo. Luego, el modelo se entrena y evalúa para optimizar su eficiencia y eficacia operativa mediante el ajuste de sus hiperparámetros asociados. Las recetas son reutilizables, lo que significa que se pueden crear múltiples modelos y adaptarlos a propósitos específicos con una sola receta.
Este tutorial guía a través de los pasos para crear, entrenar y evaluar un modelo.
Introducción
Para completar este tutorial, debe tener acceso a Experience Platform. Si no tiene acceso a una organización en Experience Platform, comuníquese con el administrador del sistema antes de continuar.
Este tutorial requiere una fórmula existente. Si no tiene una fórmula, seguir la Importar una receta empaquetada en el tutorial de IU antes de continuar.
Crear un modelo
En Experience Platform, seleccione el pestaña de modelos ubicado en el navegación izquierdo y, a continuación, seleccione el pestaña de exploración para vista los modelos existentes. Seleccione Crear modelo cerca de la parte superior derecha de la página para iniciar el proceso de creación de un modelo.
Examine la lista de fórmulas existentes, busque y seleccione la fórmula que se utilizará para crear el modelo y seleccione Siguiente.
Seleccione un conjunto de datos de entrada adecuado y seleccione Siguiente. Esto establecerá el conjunto de datos de aprendizaje de entrada predeterminado para el modelo.
Proporcione un nombre para el modelo y revise las configuraciones del modelo predeterminado. Las configuraciones predeterminadas se aplicaron durante la creación de la fórmula, revise y modifique los valores de configuración haciendo doble clic en los valores.
Para proporcionar un nuevo conjunto de configuraciones, seleccione Cargar nueva configuración y arrastre un archivo JSON que contenga configuraciones de modelo a la ventana del explorador. Seleccione Finalizar para crear el modelo.
Crear una ejecución de formación
En Experience Platform, seleccione la pestaña Modelos ubicada en el panel de navegación izquierdo y, a continuación, seleccione la pestaña Examinar para ver los modelos existentes. Busque y seleccione el hipervínculo adjunto al nombre del modelo que desea entrenar.
Se muestran todas las ejecuciones de formación existentes con sus estados de formación actuales. Para los modelos creados con la interfaz usuario Data Science Workspace , se genera y ejecuta automáticamente una ejecución aprendizaje utilizando las configuraciones predeterminadas y los aprendizaje conjunto de datos de entrada.
Crear una nueva aprendizaje ejecutar seleccionando Tren cerca de la parte superior derecha del Página de descripción general del modelo.
Seleccione el conjunto de datos de entrada de aprendizaje para la ejecución aprendizaje y, a continuación, seleccione Siguiente.
Las configuraciones predeterminadas proporcionadas durante la creación del modelo se muestran, cambian y modifican en consecuencia haciendo clic en los valores doble. Seleccione Finalizar para crear y ejecutar la ejecución aprendizaje.
Evaluación del modelo
En Experience Platform, seleccione la pestaña Modelos ubicada en el panel de navegación izquierdo y, a continuación, seleccione la pestaña Examinar para ver los modelos existentes. Busque y seleccione el hipervínculo adjunto al nombre del modelo que desea evaluar.
Se enumeran todas las ejecuciones de aprendizaje existentes con sus estados aprendizaje actuales. Con varias ejecuciones de aprendizaje completadas, las métricas de evaluación se pueden comparar en diferentes ejecuciones de aprendizaje en el gráfico de evaluación del modelo. Seleccione un Métrica de evaluación mediante el menú desplegable lista situado encima del gráfico.
La métrica Porcentaje de error absoluto medio (MAPE) expresa la precisión como un porcentaje del error. Se utiliza para identificar el experimento de mayor rendimiento. Cuanto más bajo sea el MAPE, mejor.
La métrica "Precisión" describe el porcentaje de instancias relevantes en comparación con el total de instancias recuperadas. La precisión se puede ver como la probabilidad de que un resultado seleccionado aleatoriamente sea correcto.
Al seleccionar una ejecución de aprendizaje específica se proporcionan los detalles de esa ejecución al abrir el Página de evaluación. Esto se puede hacer incluso antes de que se haya completado la ejecución. En la página de evaluación, puede ver otras métricas de evaluación, parámetros de configuración y visualizaciones específicos de la ejecución de la formación.
También puede descargar registros de actividad para ver los detalles de la ejecución. Los registros son especialmente útiles para las ejecuciones fallidas para ver qué ha fallado.
Los hiperparámetros no se pueden entrenar y un modelo debe optimizarse probando diferentes combinaciones de hiperparámetros. Repita este aprendizaje de modelo y este proceso de evaluación hasta que haya llegado a un modelo optimizado.
Pasos siguientes
Este tutorial guiarle a través de la creación, aprendizaje y evaluación de un modelo en Data Science Workspace. Una vez que haya llegado a un modelo optimizado, puede usar el modelo entrenado para generar información siguiendo el modelo de puntuación de un IU tutorial.
Referencia reference
Configuraciones de fórmula de ventas minoristas
Los hiperparámetros determinan el comportamiento de entrenamiento del Modelo, la modificación de los hiperparámetros afectará la precisión y precisión del Modelo:
Parámetros adicionales determinan las propiedades técnicas del modelo:
ACP_DSW_INPUT_FEATURES
ACP_DSW_TARGET_FEATURES
ACP_DSW_FEATURE_UPDATE_SUPPORT
tenantId
ACP_DSW_TRAINING_XDM_SCHEMA
evaluation.labelColumn
evaluation.metrics
ACP_DSW_SCORING_RESULTS_XDM_SCHEMA