Optimizar un modelo con el marco de trabajo de perspectivas del modelo
El Marco de datos de perspectivas del modelo proporciona al científico de datos las herramientas de Data Science Workspace para tomar decisiones rápidas e informadas con el fin de obtener modelos óptimos de aprendizaje automático basados en experimentos. El marco mejorará la velocidad y la eficacia del flujo de trabajo de aprendizaje automático, así como la facilidad de uso de los científicos de datos. Para ello, proporcione una plantilla predeterminada para cada tipo de algoritmo de aprendizaje automático que le ayude a ajustar el modelo. El resultado final permite a los científicos de datos y a los científicos de datos ciudadanos tomar mejores decisiones de optimización de modelos para sus clientes finales.
¿Qué son las métricas?
Después de implementar y entrenar un modelo, el siguiente paso que un científico de datos haría es encontrar el rendimiento del modelo. Se utilizan varias métricas para encontrar la eficacia que tendrá un modelo en comparación con otros. Algunos ejemplos de métricas utilizadas son:
- Precisión de clasificación
- Área bajo curva
- Matriz de confusión
- Informe de clasificación
Configuración del código de fórmula
Actualmente, el módulo de información del modelo admite los siguientes tiempos de ejecución:
Se puede encontrar código de muestra para fórmulas en el repositorio experience-platform-dsw-reference en recipes. Se hará referencia a archivos específicos de este repositorio a través de este tutorial.
Scala scala
Existen dos formas de añadir métricas a las recetas. Una es utilizar las métricas de evaluación predeterminadas proporcionadas por SDK y la otra es escribir métricas de evaluación personalizadas.
Métricas de evaluación predeterminadas para Scala
Las evaluaciones predeterminadas se calculan como parte de los algoritmos de clasificación. Estos son algunos valores predeterminados para los evaluadores que están implementados actualmente:
evaluation.classcom.adobe.platform.ml.impl.DefaultBinaryClassificationEvaluatorcom.adobe.platform.ml.impl.DefaultMultiClassificationEvaluatorcom.adobe.platform.ml.impl.RecommendationsEvaluatorEl evaluador se puede definir en la fórmula del archivo application.properties de la carpeta recipe. A continuación se muestra el código de muestra que habilita DefaultBinaryClassificationEvaluator:
evaluation.class=com.adobe.platform.ml.impl.DefaultBinaryClassificationEvaluator
evaluation.labelColumn=label
evaluation.predictionColumn=prediction
training.evaluate=true
Una vez habilitada una clase de evaluador, se calcularán varias métricas durante la formación de forma predeterminada. Las métricas predeterminadas se pueden declarar explícitamente agregando la línea siguiente a su application.properties.
evaluation.metrics.com=com.adobe.platform.ml.impl.Constants.DEFAULT
Se puede habilitar una métrica específica cambiando el valor de evaluation.metrics.com. En el ejemplo siguiente, la métrica de puntuación F está habilitada.
evaluation.metrics=com.adobe.platform.ml.impl.Constants.FSCORE
En la tabla siguiente se muestran las métricas predeterminadas de cada clase. Un usuario también puede usar los valores de la columna evaluation.metric para habilitar una métrica específica.
evaluator.classevaluation.metricDefaultBinaryClassificationEvaluator-Recuperar
-Matriz de confusión
-Puntuación F
-Precisión
-Características operativas del receptor
-Área bajo las características operativas del receptor
PRECISION-
RECALL-
CONFUSION_MATRIX-
FSCORE-
ACCURACY-
ROC-
AUROCDefaultMultiClassificationEvaluator-Recuperar
-Matriz de confusión
-Puntuación F
-Precisión
-Características operativas del receptor
-Área bajo las características operativas del receptor
PRECISION-
RECALL-
CONFUSION_MATRIX-
FSCORE-
ACCURACY-
ROC-
AUROCRecommendationsEvaluator-Ganancia acumulativa descontada normalizada
-Media de clasificación recíproca
-Métrica K
MEAN_AVERAGE_PRECISION-
NDCG-
MRR-
METRIC_KMétricas de evaluación personalizadas para Scala
Se puede proporcionar el evaluador personalizado ampliando la interfaz de MLEvaluator.scala en el archivo Evaluator.scala. En el archivo Evaluator.scala de ejemplo, definimos las funciones split() y evaluate() personalizadas. La función split() divide aleatoriamente los datos con una relación de 8:2 y la función evaluate() define y devuelve tres métricas: MAPE, MAE y RMSE.
MLMetric, no use "measures" para valueType al crear un nuevo MLMetric; de lo contrario, la métrica no se rellenará en la tabla de métricas de evaluación personalizadas.metrics.add(new MLMetric("MAPE", mape, "double"))No es esto:
metrics.add(new MLMetric("MAPE", mape, "measures"))Una vez definida en la fórmula, el siguiente paso es habilitarla en las fórmulas. Esto se hace en el archivo application.properties de la carpeta resources del proyecto. Aquí evaluation.class está establecido en la clase Evaluator definida en Evaluator.scala
evaluation.class=com.adobe.platform.ml.Evaluator
En Data Science Workspace, el usuario podría ver las perspectivas en la pestaña "Métricas de evaluación" en la página del experimento.
Python/Tensorflow pythontensorflow
Por ahora, no hay métricas de evaluación predeterminadas para Python o Tensorflow. Por lo tanto, para obtener las métricas de evaluación de Python o Tensorflow, deberá crear una métrica de evaluación personalizada. Esto se puede hacer implementando la clase Evaluator.
Métricas de evaluación personalizadas para Python
Para las métricas de evaluación personalizadas, hay dos métodos principales que deben implementarse para el evaluador: split() y evaluate().
Para Python, estos métodos se definirían en evaluator.py para la clase Evaluator. Siga el vínculo evaluator.py para ver un ejemplo de Evaluator.
La creación de métricas de evaluación en Python requiere que el usuario implemente los métodos evaluate() y split().
El método evaluate() devuelve el objeto de métrica que contiene una matriz de objetos de métrica con propiedades de name, value y valueType.
El propósito del método split() es introducir datos y generar un conjunto de datos de prueba y aprendizaje. En nuestro ejemplo, el método split() introduce datos mediante el SDK DataSetReader y, a continuación, limpia los datos eliminando columnas no relacionadas. A partir de ahí, se crean funciones adicionales a partir de las funciones sin procesar existentes en los datos.
El método split() debe devolver un marco de datos de prueba y aprendizaje que luego utilizan los métodos pipeline() para entrenar y probar el modelo XML.
Métricas de evaluación personalizadas para Tensorflow
Para Tensorflow, similar a Python, será necesario implementar los métodos evaluate() y split() en la clase Evaluator. Para evaluate(), se deben devolver las métricas mientras split() devuelve los conjuntos de datos de prueba y tren.
from ml.runtime.python.Interfaces.AbstractEvaluator import AbstractEvaluator
class Evaluator(AbstractEvaluator):
def __init__(self):
print ("initiate")
def evaluate(self, data=[], model={}, config={}):
return metrics
def split(self, config={}):
return 'train', 'test'
R r
Por ahora, no hay métricas de evaluación predeterminadas para R. Por lo tanto, para obtener las métricas de evaluación para R, deberá definir la clase applicationEvaluator como parte de la fórmula.
Métricas de evaluación personalizadas para R
El propósito principal de applicationEvaluator es devolver un objeto JSON que contiene pares de métricas clave-valor.
Este applicationEvaluator.R se puede usar como ejemplo. En este ejemplo, applicationEvaluator se divide en tres secciones familiares:
- Carga de datos
- Preparación de datos/ingeniería de funciones
- Recuperar modelo guardado y evaluar
Los datos se cargan primero en un conjunto de datos desde un origen tal como se define en retail.config.json. A partir de ahí, los datos se limpian y se diseñan para adaptarse al modelo de aprendizaje automático. Por último, el modelo se utiliza para hacer una predicción con nuestro conjunto de datos y a partir de los valores predichos y los valores reales, se calculan las métricas. En este caso, MAPE, MAE y RMSE se definen y devuelven en el objeto metrics.
Uso de métricas creadas previamente y gráficos de visualización
Sensei Model Insights Framework admitirá una plantilla predeterminada para cada tipo de algoritmo de aprendizaje automático. La tabla siguiente muestra las clases de algoritmos comunes de aprendizaje automático de alto nivel y las métricas y visualizaciones de evaluación correspondientes.
- MAPE
- MASE
- MAE
- Recuperación de precisión
- Precisión
- Puntuación F (específicamente F1 ,F2)
- AUC
- ROC
- Para cada clase:
- precisión de recuperación
- puntuación F (específicamente F1, F2)
- RI (índice Rand), ARI (índice Rand ajustado)
- puntuación de homogeneidad, puntuación de integridad, y V-measure
- FMI (índice Fowlkes-Mallow)
- Pureza
- índice Jaccard
- Coeficiente de silueta
- CHI (índice Calinski-Harabaz)
- DBI (índice Davies-Bouldin)
- Índice Dunn
-Ganancia acumulativa descontada normalizada
-Media de clasificación recíproca
-Métrica K