Version | Artikel-Link |
---|---|
AEM 6.5 | Hier klicken |
AEM as a Cloud Service | Dieser Artikel |
Organisationen, die mit digitalen Assets arbeiten, verwenden zunehmend taxonomiegesteuertes Vokabular in Asset-Metadaten. Im Grunde umfasst dieses eine Liste von Keywords, die Mitarbeiter, Partner und Kunden häufig verwenden, um sich auf digitale Assets zu beziehen und nach diesen zu suchen. Das Tagging mit einem taxonomiegesteuerten Vokabular stellt sicher, dass die Assets in Suchvorgängen einfach identifiziert und abgerufen werden können.
Verglichen mit dem Vokabular natürlicher Sprachen hilft das Tagging anhand einer Unternehmenstaxonomie dabei, die Assets am Geschäft eines Unternehmens auszurichten, und stellt dabei sicher, dass nur die relevantesten Assets bei der Suche angezeigt werden. So könnte beispielsweise ein Automobilhersteller für das Erstellen einer Werbekampagne Bilder von Autos mit Tags versehen, die die Modellnamen darstellen, sodass bei einer Suche nur relevante Bilder angezeigt werden.
Im Hintergrund verwenden die Funktionen ein KI-Framework von Adobe Sensei, um den Bilderkennungsalgorithmus auf Ihre Tag-Struktur und Ihre Unternehmenstaxonomie zu trainieren. Diese Content-Intelligenz wird dann verwendet, um relevante Tags auf einen anderen Satz von Assets anzuwenden. AEM wendet standardmäßig Smart-Tags auf hochgeladene Assets automatisch an.
Sie können die folgenden Asset-Typen mit Tags versehen:
Bilder (MIME-Typen) | Textbasierte Assets (Dateiformate) | Video-Assets (Dateiformate und Codecs) |
---|---|---|
image/jpeg | CSV | MP4 (H264/AVC) |
image/tiff | DOC | MKV (H264/AVC) |
image/png | DOCX | MOV (H264/AVC, Motion JPEG) |
image/bmp | HTML | AVI (indeo4) |
image/gif | FLV (H264/AVC, vp6f) | |
image/pjpeg | PPT | WMV (WMV2) |
image/x-portable-anymap | PPTX | |
image/x-portable-bitmap | RTF | |
image/x-portable-graymap | SRT | |
image/x-portable-pixmap | TXT | |
image/x-rgb | VTT | |
image/x-xbitmap | ||
image/x-xpixmap | ||
image/x-icon | ||
image/photoshop | ||
image/x-photoshop | ||
image/psd | ||
image/vnd.adobe.photoshop |
AEM fügt die Smart-Tags automatisch zu den textbasierten Assets und standardmäßig zu Videos hinzu. Führen Sie die folgenden Aufgaben aus, um Bilder automatisch mit Smart-Tags zu versehen.
Ein Tag-Modell ist eine Gruppe verwandter Tags, die mit verschiedenen visuellen Aspekten von Bildern verknüpft sind, die mit Tags versehen werden. Tags beziehen sich auf die deutlich unterschiedlichen visuellen Aspekte von Bildern, sodass die Tags beim Suchen nach bestimmten Bildtypen hilfreich sind. Beispielsweise kann eine Schuhkollektion unterschiedliche Tags haben, aber alle Tags beziehen sich auf Schuhe und können zum selben Tag-Modell gehören. Tags helfen, verschiedene Schuhtypen zu finden, zum Beispiel nach Design oder nach Funktion. Um die inhaltliche Darstellung eines Trainings-Modells in Experience Manager zu verstehen, stellen Sie sich ein Trainings-Modell als eine Entität der obersten Ebene vor, die aus einer Gruppe manuell hinzugefügter Tags und Beispielbildern für jedes Tag besteht. Jedes Tag kann ausschließlich auf ein Bild angewendet werden.
Bevor Sie ein Tag-Modell erstellen und den Service trainieren, identifizieren Sie einen Satz eindeutiger Tags, die die Objekte in den Bildern im Kontext Ihres Unternehmens am besten beschreiben. Stellen Sie sicher, dass die Assets in Ihrem Satz den Trainings-Richtlinien entsprechen.
Stellen Sie sicher, dass die Bilder im Trainings-Satz den folgenden Richtlinien entsprechen:
Menge und Größe: Mindestens 10 Bilder und maximal 50 Bilder pro Tag.
Kohärenz: Stellen Sie sicher, dass die Bilder für ein Tag visuell ähnlich sind. Es wird empfohlen, die Tags derselben visuellen Aspekte (z. B. desselben Objekttyps in einem Bild) zu einem einzigen Tag-Modell zusammenzufassen. So ist es beispielsweise nicht empfehlenswert, all diese Bilder mit dem Tag my-party
zu versehen (zu Trainings-Zwecken), da sie einander visuell nicht ähnlich sind.
Abdeckung: Bei den Trainings-Bildern muss eine ausreichende Vielfalt vorhanden sein. Der Grundgedanke ist, einige Beispiele bereitzustellen, die jedoch verhältnismäßig vielfältig sind, sodass Experience Manager lernt, sich auf die richtigen Dinge zu konzentrieren. Wenn Sie dasselbe Tag auf visuell nicht ähnliche Bilder anwenden, schließen Sie mindestens fünf Beispiele für jeden Typ ein. Beispiel: Schließen Sie für das Tag model-down-pose mehr Trainings-Bilder ein, die dem hervorgehobenen Bild unten ähnlich sind, sodass der Service ähnliche Bilder beim Hinzufügen von Tags genauer identifizieren kann.
Ablenkung/Verdeckung: Der Service kann besser mit Bildern trainieren, die weniger Ablenkungen enthalten (hervorgehobenen Hintergründe oder Elemente ohne Bezug wie Objekte/Personen neben dem Hauptsubjekt). Beispiel: Für das Tag casual-shoe ist das zweite Bild kein guter Kandidat für das Training.
Vollständigkeit: Wenn ein Bild für mehr als ein Tag qualifiziert ist, fügen Sie alle entsprechenden Tags hinzu, bevor Sie das Bild für eine Schulung hinzufügen. Fügen Sie beispielsweise für Tags wie Regenmantel und Modell-Seitenansicht beide Tags für das entsprechende Asset hinzu, bevor Sie es für die Schulung hinzufügen.
Anzahl der Tags: Adobe empfiehlt, dass Sie ein Modell mit mindestens zwei verschiedenen Tags und mindestens zehn verschiedenen Bildern für jedes Tag trainieren. Fügen Sie in einem einzelnen Tag-Modell nicht mehr als 50 Tags hinzu.
Anzahl der Beispiele: Fügen Sie für jedes Tag mindestens zehn Beispiele hinzu. Adobe empfiehlt jedoch etwa 30 Beispiele. Es werden maximal 50 Beispiele pro Tag unterstützt.
Vermeidung falscher positiver Werte und von Konflikte: Adobe empfiehlt die Erstellung eines einzelnen Tag-Modells für einen einzelnen visuellen Aspekt. Strukturieren Sie die Tag-Modelle so, dass überlappende Tags zwischen den Modellen vermieden werden. Verwenden Sie beispielsweise keine gemeinsamen Tags wie sneakers
in zwei verschiedenen Tag-Modellen, die shoes
und footwear
heißen. Der Trainings-Prozess überschreibt ein trainiertes Tag-Modell mit dem anderen für ein gemeinsames Keyword.
Beispiele: Weitere Beispiele zur Orientierung:
Erstellen Sie ein Tag-Modell, das Folgendes umfasst:
Erstellen Sie nicht Folgendes:
Zum Trainieren verwendete Bilder: Sie können dieselben Bilder zum Trainieren verschiedener Tag-Modelle verwenden. Sie können jedoch kein Bild mit mehr als einem Tag in einem Tag-Modell verknüpfen. Es ist möglich, dasselbe Bild mit verschiedenen Tags zu versehen, die zu verschiedenen Tag-Modellen gehören.
Sie können das Training nicht rückgängig machen. Die obigen Richtlinien sollen Ihnen bei der Auswahl guter Bilder für das Training helfen.
Gehen Sie folgendermaßen vor, um ein Modell für Ihre geschäftsspezifischen Tags zu erstellen und zu trainieren:
Erstellen Sie die erforderlichen Tags und die entsprechende Tag-Struktur. Laden Sie die entsprechenden Bilder in das DAM-Repository hoch.
Rufen Sie in der Experience Manager-Benutzeroberfläche Assets > Smart-Tag-Training auf.
Klicken Sie auf Erstellen. Geben Sie einen Titel und eine Beschreibung ein.
Klicken Sie auf das Ordnersymbol im Feld Tags. Ein Popup-Fenster wird geöffnet.
Suchen oder wählen Sie die entsprechenden Tags, die Sie dem Modell hinzufügen möchten, aus den vorhandenen Tags in cq-tags
aus. Klicken Sie auf Weiter.
Sie können die Tag-Struktur anhand der Variablen Name (alphabetische Reihenfolge), Erstellt-Datum oder Geändert-Datum aufsteigend oder absteigend sortieren.
Klicken Sie im Dialogfeld Assets auswählen für jedes Tag auf Assets hinzufügen. Suchen Sie im DAM-Repository oder durchsuchen Sie das Repository, um mindestens 10 und höchstens 50 Bilder auszuwählen. Wählen Sie Assets und nicht den Ordner aus. Nachdem Sie die Bilder ausgewählt haben, klicken Sie auf Auswählen.
Um eine Vorschau der Miniaturen der ausgewählten Bilder anzuzeigen, klicken Sie auf das Akkordeon vor einem Tag. Sie können Ihre Auswahl ändern, indem Sie auf Assets hinzufügen klicken. Wenn Sie mit der Auswahl zufrieden sind, klicken Sie auf Senden. Die Benutzeroberfläche zeigt unten auf der Seite eine Benachrichtigung an, die angibt, dass das Training gestartet wurde.
Überprüfen Sie den Status des Trainings in der Spalte Status für jedes Tag-Modell. Mögliche Status sind Ausstehend, Trainiert und Fehlgeschlagen.
Abbildung: Schritte des Trainings-Workflows zum Trainieren des Tagging-Modells.
Um sicherzustellen, dass der Smart-Tags-Service mit Ihren Tags im Asset-Trainings-Satz trainiert wurde, überprüfen Sie den Bericht zum Trainings-Workflow über die Berichte-Konsole.
Alle Typen unterstützter Assets werden beim Hochladen automatisch von Experience Manager Assets mit Tags versehen. Tagging ist standardmäßig aktiviert und funktioniert. AEM wendet die entsprechenden Smart-Tags nahezu in Echtzeit an.
Für Bilder und Videos basieren die Smart-Tags auf visuellen Aspekten.
Bei textbasierten Assets hängt die Wirksamkeit von Smart-Tags nicht von der Textmenge im Asset ab, sondern von den relevanten Keywords oder Entitäten, die im Text des Assets vorhanden sind. Bei textbasierten Assets sind die Smart-Tags die Keywords, die im Text angezeigt werden, und zwar die, die das Asset am besten beschreiben. Bei unterstützten Assets extrahiert Experience Manager bereits den Text, der dann indiziert und zum Suchen nach den Assets verwendet wird. Smart-Tags, die auf Keywords im Text basieren, bieten jedoch eine dedizierte, strukturierte und höher priorisierte Suchfacette. Letzteres trägt dazu bei, die Asset-Erkennung im Vergleich zu einem Suchindex zu verbessern.
Sie können Smart-Tags kuratieren, um ungenaue Tags zu entfernen, die möglicherweise Ihren Marken-Assets zugewiesen wurden, sodass nur die relevantesten Tags angezeigt werden.
Mithilfe der Moderation von Smart-Tags können Sie Tag-basierte Suchen nach Assets verfeinern, indem Sie sicherstellen, dass Ihr Asset nur in den Suchergebnissen für die relevantesten Tags angezeigt wird. Im Grunde wird so ausgeschlossen, dass in den Suchergebnissen Assets ohne Bezug angezeigt werden.
Sie können einem Tag auch einen höheren Rang zuweisen, um die Relevanz des Tags für das Asset zu erhöhen. Je höher der Rang eines Tags für ein Asset desto wahrscheinlicher ist bei einer Tag-basierten Suche die Aufnahme des Assets in die Suchergebnisse.
So moderieren Sie die Smart-Tags Ihrer digitalen Assets:
Suchen Sie im Suchfeld nach digitalen Assets, die auf einem Tag basieren.
Prüfen Sie die Suchergebnisse, um die digitalen Assets zu identifizieren, die für Ihre Suche nicht relevant sind.
Wählen Sie ein Asset aus, und wählen Sie dann in der Symbolleiste aus.
Prüfen Sie die Tags auf der Seite Tags verwalten. Wenn Sie ein spezifisches Tag für ein Asset ausschließen möchten, wählen Sie das Tag und anschießend in der Symbolleiste aus. Alternativ können Sie
X
-Symbol neben der Beschriftung auswählen.
Um einem Tag einen höheren Rang zuzuweisen, wählen Sie das Tag und anschließend in der Symbolleiste aus. Das höhergestufte Tag wird in den Abschnitt Tags verschoben.
Wählen Sie Speichern und dann OK au, um das Dialogfeld Erfolg zu schließen.
Gehen Sie zur Seite „Eigenschaften“ des betreffenden Assets. Beachten Sie, dass das beworbene Tag eine hohe Relevanz erhält und es aus diesem Grund höher in den Suchergebnissen angezeigt wird.
Die Experience Manager-Suche kombiniert die Suchbegriffe standardmäßig mit einer AND
-Klausel. Dieses Standardverhalten ändert sich durch die Verwendung von Smart-Tags nicht. Durch die Verwendung von Smart-Tags wird eine OR
-Klausel hinzugefügt. Damit wird jeder Suchbegriff in den angewandten Smart-Tags gefunden. Suchen Sie beispielsweise nach woman running
. Assets, die in den Metadaten nur das Keyword woman
oder running
aufweisen, werden standardmäßig nicht in den Suchergebnissen angezeigt. Ein Asset, das über Smart-Tags mit woman
oder running
getaggt wurde, wird bei dieser Suchanfrage jedoch angezeigt. Die Suchergebnisse sind also eine Kombination aus
Assets mit den Keywords woman
und running
in den Metadaten.
Assets, die über Smart-Tags mit einem der Keywords getaggt wurden.
Die Suchergebnisse, die in Metadatenfeldern alle Suchbegriffe aufweisen, werden zuerst angezeigt. Danach folgen die Suchergebnisse, die einem oder mehr Suchbegriffen in den Smart-Tags entsprechen. Im obigen Beispiel werden die Suchergebnisse ungefähr in dieser Reihenfolge angezeigt:
woman running
in den verschiedenen Metadatenfeldern.woman running
in den Smart-Tags.woman
oder running
in Smart-Tags.Optimiertes Smart-Tagging basiert auf Lernmodellen von Markenbildern und den zugehörigen Tags. Diese Modelle können Tags nicht immer perfekt identifizieren. Bei der aktuellen Version der Smart-Tags gibt es folgende Einschränkungen:
Subtile Unterschiede in Bildern können nicht erkannt werden. Beispiel: Hemden mit schlanker oder normaler Passform.
Tags können nicht anhand von winzigen Mustern oder Teilen eines Bildes identifiziert werden. Beispiel: Logos auf Hemden.
Tagging wird in den von Experience Manager unterstützten Sprachen unterstützt.
Die Tags, die nicht verarbeitet werden, beziehen sich auf:
Verwenden Sie zum Trainieren des Modells die am besten geeigneten Bilder. Das Training kann nicht rückgängig gemacht werden, das Trainings-Modell kann nicht entfernt werden. Ihre Tagging-Genauigkeit hängt von der aktuellen Schulung ab. Gehen Sie daher sorgfältig vor.
Verwenden Sie die Assets-Suche (Volltextsuche), um nach Dateien mit Smart-Tags (normal oder erweitert) zu suchen. Es gibt kein separates Suchprädikat für Smart-Tags.
Die Fähigkeit der Smart-Tags, aus Ihren Tags zu lernen und diese Tags auf andere Bilder anzuwenden, hängt von der Qualität der für das Training verwendeten Bilder ab.
Um die bestmöglichen Ergebnisse zu erzielen, empfiehlt Adobe die Verwendung visuell ähnlicher Bilder, um den Service für die einzelnen Tags zu trainieren.
Siehe auch