En savoir plus sur le Data Workbench Annonce de fin de vie.
Le menu Arborescence de décision comprend des fonctionnalités permettant de définir le cas d’utilisation positif, les filtres, les options de distribution des feuilles, la matrice de confusion et d’autres options avancées.
Bouton Barre d’outils | Description |
---|---|
Aller | Cliquez sur pour exécuter l’algorithme de l’arbre de décision et afficher la visualisation. Ceci est grisé jusqu’à ce qu’il y ait des entrées. |
Réinitialiser | Efface les entrées et le modèle d’arbre de décision et réinitialise le processus. |
Enregistrer | Enregistrement de l’arbre de décision. Vous pouvez enregistrer l’arbre de décision dans différents formats :
|
Options | Voir le tableau ci-dessous pour le menu Options. |
Menu Options | Description |
---|---|
Définir un cas positif | Définit la sélection actuelle de l’espace de travail comme cas positif du modèle. Efface la casse si aucune sélection n’existe. |
Définir le filtre de population | Définit la sélection actuelle de l’espace de travail comme filtre de population du modèle et sera tracée à partir des visiteurs qui respectent cette condition. La valeur par défaut est "Tout le monde". |
Afficher la description de filtre complexe | Affiche des descriptions des filtres définis. Cliquez sur pour afficher les scripts de filtrage par cas positif et par filtre de population. |
Masquer les noeuds | Masque les noeuds avec un faible pourcentage de la population. Cette commande de menu s’affiche uniquement lorsque l’arborescence de décision est affichée. |
Matrice de confusion | Cliquez sur Options > Matrice de confusion pour afficher les valeurs Précision, Rappel, Précision et F-Score. Plus on se rapproche de 100%, plus le score est élevé. La matrice de confusion donne quatre valeurs d’exactitude du modèle en utilisant une combinaison de valeurs :
Conseil : Ces chiffres sont obtenus en appliquant le modèle de notation obtenu des données de test de 20 % ignorées et déjà connues comme la vraie réponse. Si le score est supérieur à 50 %, il est prédit comme un cas positif (correspondant au filtre défini). Ensuite, Précision = (TP + TN)/(TP + FP + TN + FN), Rappel = TP / (TP + FN) et Précision = TP / (TP + FP). |
Afficher la légende | Permet d’activer et de désactiver une clé de légende dans l’arbre de décision. ![]() |
Advanced | Cliquez pour ouvrir le menu Avancé afin d’utiliser en détail l’arbre de décision. Voir le tableau ci-dessous pour connaître les options de menu. |
Menu avancé | Description |
---|---|
Taille du jeu d’entraînement | Contrôle la taille du jeu d’entraînement utilisé pour la création du modèle. Les plus grands ensembles prennent plus de temps à s'entraîner, les plus petits ensembles prennent moins de temps. |
Normalisation d’entrée | Permet à l’utilisateur de spécifier s’il faut utiliser la technique Min-Max ou Score Z pour normaliser les entrées dans le modèle. |
Facteur de sur-échantillonnage SMOTE | Lorsque le cas positif ne se produit pas très souvent (moins de 10 %) dans l’échantillon d’entraînement, l’outil SMOTE est utilisé pour fournir des exemples supplémentaires. Cette option permet à l’utilisateur d’indiquer le nombre d’exemples supplémentaires à créer à l’aide de SMOTE. |
Seuil de distribution de la classe Leaf | Permet de définir le seuil supposé pour une feuille lors du processus de création de l’arborescence. Par défaut, tous les membres d’un noeud doivent être identiques pour être une feuille (avant l’étape d’élagage). |