Entrenar y evaluar un modelo en la interfaz de usuario de Data Science Workspace
En Adobe Experience Platform Data Science Workspace, se crea un modelo de aprendizaje automático incorporando una fórmula existente que es adecuada para la intención del modelo. A continuación, se entrena y evalúa el Modelo para optimizar su eficiencia operativa y eficacia mediante el ajuste de sus Hiperparámetros asociados. Las fórmulas son reutilizables, lo que significa que se pueden crear varios modelos y adaptarlos a propósitos específicos con una sola fórmula.
Este tutorial explica los pasos para crear, entrenar y evaluar un modelo.
Primeros pasos
Para completar este tutorial, debe tener acceso a Experience Platform. Si no tiene acceso a una organización en Experience Platform, póngase en contacto con el administrador del sistema antes de continuar.
Este tutorial requiere una fórmula existente. Si no dispone de una fórmula, siga las Importación de una fórmula empaquetada en la IU tutorial antes de continuar.
Creación de un modelo
En Experience Platform, seleccione la opción Modelos situado en el panel de navegación izquierdo y, a continuación, seleccione la pestaña Examinar para ver los modelos existentes. Seleccionar Crear modelo cerca de la parte superior derecha de la página para iniciar un proceso de creación de un modelo.
Examine la lista de fórmulas existentes, busque y seleccione la fórmula que se utilizará para crear el modelo y seleccione Siguiente.
Seleccione un conjunto de datos de entrada adecuado y seleccione Siguiente. Esto establecerá el conjunto de datos de aprendizaje de entrada predeterminado para el modelo.
Proporcione un nombre para el modelo y revise las configuraciones del modelo predeterminado. Las configuraciones predeterminadas se aplicaron durante la creación de la fórmula, revise y modifique los valores de configuración haciendo doble clic en los valores.
Para proporcionar un nuevo conjunto de configuraciones, seleccione Cargar nueva configuración y arrastre un archivo JSON que contenga configuraciones de modelo a la ventana del explorador. Seleccionar Finalizar para crear el modelo.
Crear una ejecución de formación
En Experience Platform, seleccione la opción Modelos situado en el panel de navegación izquierdo y, a continuación, seleccione la pestaña Examinar para ver los modelos existentes. Busque y seleccione el hipervínculo adjunto al nombre del modelo que desea entrenar.
Se muestran todas las ejecuciones de formación existentes con sus estados de formación actuales. Para los modelos creados con Data Science Workspace interfaz de usuario, se genera y ejecuta automáticamente una ejecución de formación utilizando las configuraciones predeterminadas y el conjunto de datos de formación de entrada.
Cree una nueva ejecución de formación seleccionando Entrenar cerca de la parte superior derecha de la página Información general del modelo.
Seleccione el conjunto de datos de entrada de formación para la ejecución de formación y, a continuación, seleccione Siguiente.
Se mostrarán las configuraciones predeterminadas proporcionadas durante la creación del modelo. Para cambiarlas y modificarlas en consecuencia, haga doble clic en los valores. Seleccionar Finalizar para crear y ejecutar la ejecución de formación.
Evaluación del modelo
En Experience Platform, seleccione la opción Modelos situado en el panel de navegación izquierdo y, a continuación, seleccione la pestaña Examinar para ver los modelos existentes. Busque y seleccione el hipervínculo adjunto al nombre del modelo que desea evaluar.
Se muestran todas las ejecuciones de formación existentes con sus estados de formación actuales. Con varias ejecuciones de formación completadas, las métricas de evaluación se pueden comparar en distintas ejecuciones de formación en el gráfico de evaluación Modelo. Seleccione una métrica de evaluación mediante la lista desplegable situada encima del gráfico.
La métrica Porcentaje de error absoluto medio (MAPE) expresa la precisión como un porcentaje del error. Se utiliza para identificar el experimento de mayor rendimiento. Cuanto más bajo sea el MAPE, mejor.
La métrica "Precisión" describe el porcentaje de instancias relevantes comparado con el total recuperado Instancias. La precisión se puede ver como la probabilidad de que un resultado seleccionado aleatoriamente sea correcto.
Al seleccionar una ejecución de formación específica, se proporcionan los detalles de dicha ejecución abriendo la página de evaluación. Esto se puede hacer incluso antes de que se haya completado la ejecución. En la página de evaluación, puede ver otras métricas de evaluación, parámetros de configuración y visualizaciones específicos de la ejecución de la formación.
También puede descargar registros de actividad para ver los detalles de la ejecución. Los registros son especialmente útiles para las ejecuciones fallidas para ver qué ha fallado.
Los hiperparámetros no se pueden entrenar y un modelo debe optimizarse probando diferentes combinaciones de hiperparámetros. Repita este proceso de formación y evaluación del modelo hasta que haya llegado a un modelo optimizado.
Pasos siguientes
Este tutorial le guió a través de la creación, la formación y la evaluación de un modelo en Data Science Workspace. Una vez que haya llegado a un modelo optimizado, puede utilizar el modelo entrenado para generar perspectivas siguiendo las Puntuación de un modelo en la IU tutorial.
Referencia reference
Configuraciones de fórmula de ventas minoristas
Los hiperparámetros determinan el comportamiento de entrenamiento del Modelo, la modificación de los hiperparámetros afectará la precisión y precisión del Modelo:
Los parámetros adicionales determinan las propiedades técnicas del modelo:
ACP_DSW_INPUT_FEATURES
ACP_DSW_TARGET_FEATURES
ACP_DSW_FEATURE_UPDATE_SUPPORT
tenantId
ACP_DSW_TRAINING_XDM_SCHEMA
evaluation.labelColumn
evaluation.metrics
ACP_DSW_SCORING_RESULTS_XDM_SCHEMA