Mehr über die Data Workbench Mitteilung zum Ende der Nutzungsdauer.
Das Menü Entscheidungsstruktur enthält Funktionen zum Festlegen des positiven Anwendungsfalls, von Filtern, Blattverteilungsoptionen, Verwirrungsmatrix und anderen erweiterten Optionen.
Schaltflächen der Symbolleiste | Beschreibung |
---|---|
Los | Klicken Sie auf , um den Entscheidungsbaum-Algorithmus auszuführen und die Visualisierung anzuzeigen. Dies ist ausgegraut, bis Eingaben vorhanden sind. |
Zurücksetzen | Löscht Eingaben und Entscheidungsbaummodelle und setzt den Prozess zurück. |
Speichern | Entscheidungsbaum speichern. Sie können die Entscheidungsstruktur in verschiedenen Formaten speichern:
|
Optionen | Siehe Tabelle unten für das Menü Optionen . |
Optionen, Menü | Beschreibung |
---|---|
Positiven Fall festlegen | Definiert die aktuelle Workspace-Auswahl als positiven Fall des Modells. Löscht die Groß-/Kleinschreibung, wenn keine Auswahl vorhanden ist. |
Populationsfilter festlegen | Definiert die aktuelle Workspace-Auswahl als Populationsfilter des Modells und wird von Besuchern gezogen, die diese Bedingung erfüllen. Die Standardeinstellung ist "Alle". |
Beschreibung komplexer Filter anzeigen | Zeigt Beschreibungen der definierten Filter an. Klicken Sie auf , um die Filterskripten für den Filter Positive Groß-/Kleinschreibung und Population anzuzeigen. |
Knoten ausblenden | Blendet Knoten mit nur einem geringen Prozentsatz der Population aus. Dieser Menübefehl wird nur angezeigt, wenn der Entscheidungsbaum angezeigt wird. |
Verwirrungsmatrix | Klicken Optionen > Verwirrungsmatrix um die Werte für Genauigkeit, Recall, Genauigkeit und F-Score anzuzeigen. Je näher 100 Prozent sind, desto besser ist das Ergebnis. Die Konfusionsmatrix gibt vier Genauigkeitszähler des Modells anhand einer Kombination von Werten an:
Tipp: Diese Zahlen erhalten Sie durch Anwendung des resultierenden Scoring-Modells der 20 Prozent zurückbehaltenen Testdaten, die bereits als wahre Antwort bezeichnet werden. Wenn der Wert größer als 50 Prozent ist, wird er als positiver Fall prognostiziert (der mit dem definierten Filter übereinstimmt). Dann, Genauigkeit = (TP + TN)/(TP + FP + TN + FN), Recall = TP / (TP + FN) und Precision = TP / (TP + FP). |
Legende anzeigen | Ermöglicht das Ein- und Ausschalten eines Legendenschlüssels im Entscheidungsbaum. ![]() |
Erweitert | Klicken Sie auf , um das erweiterte Menü für die ausführliche Verwendung des Entscheidungsbaums zu öffnen. Menüoptionen finden Sie in der Tabelle unten. |
Erweitertes Menü | Beschreibung |
---|---|
Größe des Trainings-Sets | Steuert die Größe des für die Modellerstellung verwendeten Trainings-Sets. Größere Sets brauchen länger, kleinere Sets brauchen weniger Zeit. |
Input Normalization | Ermöglicht dem Benutzer anzugeben, ob die Min-Max- oder die Z-Score-Technik verwendet werden soll, um Eingaben in das Modell zu normalisieren. |
SMOTE-Überstichprobenfaktor | Wenn der positive Fall in der Trainings-Probe nicht sehr häufig (weniger als 10 Prozent) auftritt, wird SMOTE verwendet, um zusätzliche Beispiele bereitzustellen. Mit dieser Option kann der Benutzer angeben, wie viele weitere Beispiele mit SMOTE erstellt werden sollen. |
Leaf-Klassenverteilungsschwellenwert | Ermöglicht das Festlegen der Schwelle, die für ein Blatt während des Baumstrukturerstellungsprozesses angenommen wird. Standardmäßig müssen alle Mitglieder eines Knotens identisch sein, damit es sich um ein Blatt handelt (vor dem Beschneiden). |