Hinzufügen von Smart-Tags zu Ihren Assets und Verbessern des Sucherlebnisses

Organisationen, die mit digitalen Assets arbeiten, verwenden zunehmend taxonomiegesteuertes Vokabular in Asset-Metadaten. Im Grunde umfasst dieses eine Liste von Keywords, die Mitarbeiter, Partner und Kunden häufig verwenden, um sich auf digitale Assets zu beziehen und nach diesen zu suchen. Das Tagging mit einem taxonomiegesteuerten Vokabular stellt sicher, dass die Assets in Suchvorgängen einfach identifiziert und abgerufen werden können.

Verglichen mit dem Vokabular natürlicher Sprachen hilft das Tagging anhand einer Unternehmenstaxonomie dabei, die Assets am Geschäft eines Unternehmens auszurichten, und stellt dabei sicher, dass nur die relevantesten Assets bei der Suche angezeigt werden. So könnte beispielsweise ein Automobilhersteller für das Erstellen einer Werbekampagne Bilder von Autos mit Tags versehen, die die Modellnamen darstellen, sodass bei einer Suche nur relevante Bilder angezeigt werden.

Im Hintergrund verwendet die Funktion das künstlich intelligente Framework von Adobe Sensei, um den Bilderkennungsalgorithmus auf Ihre Tag-Struktur und Ihre Unternehmenstaxonomie zu trainieren. Diese Content-Intelligenz wird dann verwendet, um relevante Tags auf einen anderen Satz von Assets anzuwenden. Experience Manager Assets wendet standardmäßig Smart-Tags auf hochgeladene Assets automatisch an.

Unterstützte Asset-Typen

Sie können die folgenden Asset-Typen mit Tags versehen:

  • Bilder: Bilder in vielen Formaten werden mithilfe der intelligenten Content Services von Adobe Sensei mit Tags versehen. Sie erstellen ein Trainings-Modell und die hochgeladenen Bilder werden automatisch mit Tags versehen. Smart-Tags werden auf die unterstützten Dateitypen angewendet, die Ausgabedarstellungen im JPG- und PNG-Format generieren.
  • Textbasierte Assets: Experience Manager Assets versieht unterstützte textbasierte Assets beim Hochladen automatisch mit Tags.
  • Video-Assets: Video-Tagging ist standardmäßig in Adobe Experience Manager as a Cloud Service aktiviert. Videos werden automatisch mit Tags versehen, wenn Sie neue Videos hochladen oder vorhandene erneut verarbeiten.
Bilder (MIME-Typen) Textbasierte Assets (Dateiformate) Video-Assets (Dateiformate und Codecs)
image/jpeg CSV MP4 (H264/AVC)
image/tiff DOC MKV (H264/AVC)
image/png DOCX MOV (H264/AVC, Motion JPEG)
image/bmp HTML AVI (indeo4)
image/gif PDF FLV (H264/AVC, vp6f)
image/pjpeg PPT WMV (WMV2)
image/x-portable-anymap PPTX
image/x-portable-bitmap RTF
image/x-portable-graymap SRT
image/x-portable-pixmap TXT
image/x-rgb VTT
image/x-xbitmap
image/x-xpixmap
image/x-icon
image/photoshop
image/x-photoshop
image/psd
image/vnd.adobe.photoshop

Experience Manager fügt den textbasierten Assets und Videos standardmäßig automatisch die Smart-Tags hinzu. Führen Sie die folgenden Aufgaben aus, um Bilder automatisch mit Smart-Tags zu versehen.

Grundlegendes zu Tag-Modellen und Richtlinien

Ein Tag-Modell ist eine Gruppe verwandter Tags, die mit verschiedenen visuellen Aspekten von Bildern verknüpft sind, die mit Tags versehen werden. Tags beziehen sich auf die deutlich unterschiedlichen visuellen Aspekte von Bildern, sodass die Tags beim Suchen nach bestimmten Bildtypen hilfreich sind. Beispielsweise kann eine Schuhkollektion unterschiedliche Tags haben, aber alle Tags beziehen sich auf Schuhe und können zum selben Tag-Modell gehören. Wenn die Tags angewendet werden, helfen sie bei der Suche nach verschiedenen Schuhtypen, z. B. nach Entwurf oder Verwendung. Um die inhaltliche Darstellung eines Trainings-Modells in Experience Manager zu verstehen, stellen Sie sich ein Trainings-Modell als eine Entität der obersten Ebene vor, die aus einer Gruppe manuell hinzugefügter Tags und Beispielbildern für jedes Tag besteht. Jedes Tag kann ausschließlich auf ein Bild angewendet werden.

Bevor Sie ein Tag-Modell erstellen und den Service trainieren, identifizieren Sie einen Satz eindeutiger Tags, die die Objekte in den Bildern im Kontext Ihres Unternehmens am besten beschreiben. Stellen Sie sicher, dass die Assets in Ihrem Satz den Trainings-Richtlinien entsprechen.

Trainings-Richtlinien

Stellen Sie sicher, dass die Bilder im Trainings-Satz den folgenden Richtlinien entsprechen:

Menge und Größe: Mindestens 10 Bilder und maximal 50 Bilder pro Tag.

Kohärenz: Stellen Sie sicher, dass die Bilder für ein Tag visuell ähnlich sind. Es wird empfohlen, die Tags derselben visuellen Aspekte (z. B. desselben Objekttyps in einem Bild) zu einem einzigen Tag-Modell zusammenzufassen. So ist es beispielsweise nicht empfehlenswert, all diese Bilder mit dem Tag my-party zu versehen (zu Trainings-Zwecken), da sie einander visuell nicht ähnlich sind.

Veranschaulichende Bilder als Beispiele für die Richtlinien für das Training

Abdeckung: Bei den Trainings-Bildern muss eine ausreichende Vielfalt vorhanden sein. Der Grundgedanke ist, einige Beispiele bereitzustellen, die jedoch verhältnismäßig vielfältig sind, sodass Experience Manager lernt, sich auf die richtigen Dinge zu konzentrieren. Wenn Sie dasselbe Tag auf visuell unähnliche Bilder anwenden, schließen Sie mindestens fünf Beispiele für jeden Typ ein. Beispiel: Schließen Sie für das Tag model-down-pose mehr Trainings-Bilder ein, die dem hervorgehobenen Bild unten ähnlich sind, sodass der Service ähnliche Bilder beim Hinzufügen von Tags genauer identifizieren kann.

Veranschaulichende Bilder als Beispiele für die Richtlinien für das Training

Ablenkung/Verdeckung: Der Service kann besser mit Bildern trainieren, die weniger Ablenkungen enthalten (hervorgehobenen Hintergründe oder Elemente ohne Bezug wie Objekte/Personen neben dem Hauptsubjekt). Beispiel: Für das Tag casual-shoe ist das zweite Bild kein guter Kandidat für das Training.

Veranschaulichende Bilder als Beispiele für die Richtlinien für das Training

Vollständigkeit: Wenn ein Bild für mehr als ein Tag qualifiziert ist, fügen Sie alle entsprechenden Tags hinzu, bevor Sie das Bild für eine Schulung hinzufügen. Fügen Sie beispielsweise für Tags wie Regenmantel und Modell-Seitenansicht beide Tags für das entsprechende Asset hinzu, bevor Sie es für die Schulung hinzufügen.

Veranschaulichende Bilder als Beispiele für die Richtlinien für das Training

Anzahl der Tags: Adobe empfiehlt, dass Sie ein Modell mit mindestens zwei verschiedenen Tags und mindestens zehn verschiedenen Bildern für jedes Tag trainieren. Fügen Sie in einem einzelnen Tag-Modell nicht mehr als 50 Tags hinzu.

Anzahl der Beispiele: Fügen Sie für jedes Tag mindestens zehn Beispiele hinzu. Adobe empfiehlt jedoch etwa 30 Beispiele. Es werden maximal 50 Beispiele pro Tag unterstützt.

Vermeidung falscher positiver Werte und von Konflikte: Adobe empfiehlt die Erstellung eines einzelnen Tag-Modells für einen einzelnen visuellen Aspekt. Strukturieren Sie die Tag-Modelle so, dass überlappende Tags zwischen den Modellen vermieden werden. Verwenden Sie beispielsweise keine gemeinsamen Tags wie sneakers in zwei verschiedenen Tag-Modellen, die shoes und footwear heißen. Der Trainings-Prozess überschreibt ein trainiertes Tag-Modell mit dem anderen für ein gemeinsames Keyword.

Beispiele: Weitere Beispiele zur Orientierung:

  • Erstellen Sie ein Tag-Modell, das nur Folgendes enthält:

    • Die Tags bezogen sich auf Automodelle.
    • Die Tags, die sich auf Jacken für Erwachsene und Kinder beziehen.
  • Erstellen Sie nicht Folgendes:

    • Ein Tag-Modell, das in den Jahren 2019 und 2020 veröffentlichte Automodelle enthält.
    • Mehrere Tag-Modelle, die dieselben Automodelle enthalten.

Zum Trainieren verwendete Bilder: Sie können dieselben Bilder zum Trainieren verschiedener Tag-Modelle verwenden. Sie können jedoch kein Bild mit mehr als einem Tag in einem Tag-Modell verknüpfen. Es ist möglich, dasselbe Bild mit verschiedenen Tags zu versehen, die zu verschiedenen Tag-Modellen gehören.

Sie können das Training nicht rückgängig machen. Die obigen Richtlinien sollen Ihnen bei der Auswahl guter Bilder für das Training helfen.

Trainieren des Modelle für Ihre benutzerdefinierten Tags

Gehen Sie folgendermaßen vor, um ein Modell für Ihre geschäftsspezifischen Tags zu erstellen und zu trainieren:

  1. Erstellen Sie die erforderlichen Tags und die entsprechende Tag-Struktur. Laden Sie die entsprechenden Bilder in das DAM-Repository hoch.

  2. Rufen Sie in der Experience Manager-Benutzeroberfläche Assets > Smart-Tag-Training auf.

  3. Klicken Sie auf Erstellen. Geben Sie einen Titel und eine Beschreibung ein.

  4. Durchsuchen und wählen Sie die Tags aus den vorhandenen Tags in cq:tags aus, für die Sie das Modell trainieren möchten. Klicken Sie auf Weiter.

  5. Klicken Sie im Dialogfeld Assets auswählen für jedes Tag auf Assets hinzufügen. Suchen Sie im DAM-Repository oder durchsuchen Sie das Repository, um mindestens 10 und höchstens 50 Bilder auszuwählen. Wählen Sie Assets und nicht den Ordner aus. Klicken Sie nach Auswahl der Bilder auf Auswählen.

    Trainingstatus anzeigen

  6. Um eine Vorschau der Miniaturansichten der ausgewählten Bilder anzuzeigen, klicken Sie auf das Akkordeon vor einem Tag. Sie können Ihre Auswahl ändern, indem Sie auf Assets hinzufügen klicken. Wenn Sie mit der Auswahl zufrieden sind, klicken Sie auf Senden. Die Benutzeroberfläche zeigt unten auf der Seite eine Benachrichtigung an, die angibt, dass das Training gestartet wurde.

  7. Überprüfen Sie den Status des Trainings in der Spalte Status für jedes Tag-Modell. Mögliche Status sind Ausstehend, Trainiert und Fehlgeschlagen.

Workflow zum Trainieren von Tagging-Modellen für das Smart-Tagging

Abbildung: Schritte des Trainings-Workflows zum Trainieren des Tagging-Modells.

Anzeigen von Trainings-Status und -Bericht

Um sicherzustellen, dass der Smart-Tags-Service mit Ihren Tags im Asset-Trainings-Satz trainiert wurde, überprüfen Sie den Bericht zum Trainings-Workflow über die Berichte-Konsole.

  1. Gehen Sie in der Experience Manager-Benutzeroberfläche zu Tools > Assets > Berichte.
  2. Klicken Sie auf der Seite Asset-Berichte auf Erstellen.
  3. Wählen Sie den Bericht Smart-Tags-Training aus und klicken Sie dann in der Symbolleiste auf Weiter.
  4. Geben Sie einen Titel und eine Beschreibung für den Bericht an. Lassen Sie unter Berichtplanen die Option Jetzt aktiviert. Wenn Sie den Bericht für einen späteren Zeitpunkt planen möchten, wählen Sie Später und geben Sie ein Datum und eine Uhrzeit an. Klicken Sie dann in der Symbolleiste auf Erstellen.
  5. Wählen Sie auf der Seite Asset-Berichte den erstellten Bericht aus. Um den Bericht anzuzeigen, klicken Sie in der Symbolleiste auf Ansicht.
  6. Prüfen Sie die Details des Berichts. Der Bericht zeigt den Trainings-Status der von Ihnen trainierten Tags an. Grün gibt in der Spalte Trainings-Status an, dass der Smart-Tages-Service für das Tag trainiert wurde. Gelb bedeutet, dass der Dienst teilweise für ein bestimmtes Tag trainiert ist. Um den Dienst vollständig für ein Tag zu trainieren, fügen Sie weitere Bilder mit dem entsprechenden Tag hinzu und führen Sie den Trainings-Workflow aus. Wenn Ihre Tags in diesem Bericht nicht angezeigt werden, führen Sie den Trainings-Workflow für diese Tags erneut aus.
  7. Um den Bericht herunterzuladen, wählen Sie ihn aus der Liste aus und klicken Sie in der Symbolleiste auf Herunterladen. Der Bericht wird als -Tabellenkalkulation heruntergeladen.

Tagging von Assets mit Smart-Tags

Alle Typen unterstützter Assets werden beim Hochladen automatisch von Experience Manager Assets mit Tags versehen. Tagging ist standardmäßig aktiviert und funktioniert. Experience Manager wendet die entsprechenden Tags nahezu in Echtzeit an.

  • Bei Bildern und Videos basieren die Smart-Tags auf einem visuellen Aspekt.

  • Bei textbasierten Assets hängt die Wirksamkeit von Smart-Tags nicht von der Textmenge im Asset ab, sondern von den relevanten Keywords oder Entitäten, die im Text des Assets vorhanden sind. Bei textbasierten Assets sind die Smart-Tags die Keywords, die im Text angezeigt werden, und zwar die, die das Asset am besten beschreiben. Bei unterstützten Assets extrahiert Experience Manager bereits den Text, der dann indiziert und zum Suchen nach den Assets verwendet wird. Smart-Tags, die auf Keywords im Text basieren, bieten jedoch eine dedizierte, strukturierte und höher prioritäre Suchfacette. Letzteres trägt dazu bei, die Asset-Erkennung im Vergleich zu einem Suchindex zu verbessern.

Verwalten von Smart-Tags und Asset-Suchvorgängen

Sie können Smart-Tags kuratieren, um ungenaue Tags zu entfernen, die möglicherweise Ihren Marken-Assets zugewiesen wurden, sodass nur die relevantesten Tags angezeigt werden.

Mithilfe der Moderation von Smart-Tags können Sie Tag-basierte Suchen nach Assets verfeinern, indem Sie sicherstellen, dass Ihr Asset nur in den Suchergebnissen für die relevantesten Tags angezeigt wird. Im Grunde wird so ausgeschlossen, dass in den Suchergebnissen Assets ohne Bezug angezeigt werden.

Sie können einem Tag auch einen höheren Rang zuweisen, um die Relevanz des Tags für das Asset zu erhöhen. Je höher der Rang eines Tags für ein Asset desto wahrscheinlicher ist bei einer Tag-basierten Suche die Aufnahme des Assets in die Suchergebnisse.

So moderieren Sie die Smart-Tags Ihrer digitalen Assets:

  1. Suchen Sie im Suchfeld nach digitalen Assets basierend auf einem Tag.

  2. Prüfen Sie die Suchergebnisse, um die digitalen Assets zu identifizieren, die Sie für Ihre Suche nicht relevant finden.

  3. Wählen Sie ein Asset aus und wählen Sie dann Tag-Symbol in der Symbolleiste aus.

  4. Prüfen Sie die Tags auf der Seite Tags verwalten. Wenn Sie ein spezifisches Tag für ein Asset ausschließen möchten, wählen Sie das Tag und anschießend in der Symbolleiste Löschsymbol aus. Alternativ können Sie X-Symbol neben der Beschriftung auswählen.

  5. Um einem Tag einen höheren Rang zuzuweisen, wählen Sie das Tag und anschließend in der Symbolleiste Symbol „Höherstufen“ aus. Das höhergestufte Tag wird in den Abschnitt Tags verschoben.

  6. Wählen Sie Speichern und dann OK au, um das Dialogfeld Erfolg zu schließen.

  7. Gehen Sie zur Seite „Eigenschaften“ des betreffenden Assets. Beachten Sie, dass das beworbene Tag eine hohe Relevanz erhält und es aus diesem Grund höher in den Suchergebnissen angezeigt wird.

Die Experience Manager-Suche kombiniert die Suchbegriffe standardmäßig mit einer AND-Klausel. Dieses Standardverhalten ändert sich durch die Verwendung von Smart-Tags nicht. Durch die Verwendung von Smart-Tags wird eine OR-Klausel hinzugefügt. Damit wird jeder Suchbegriff in den angewandten Smart-Tags gefunden. Suchen Sie beispielsweise nach woman running. Assets, die in den Metadaten nur das Keyword womanoder running aufweisen, werden standardmäßig nicht in den Suchergebnissen angezeigt. Ein Asset, das über Smart-Tags mit woman oder running getaggt wurde, wird bei dieser Suchanfrage jedoch angezeigt. Die Suchergebnisse sind also eine Kombination aus

  • Assets mit woman- und running-Schlüsselwörtern in den Metadaten.

  • Assets, die mit einem der Keywords getaggt wurden.

Die Suchergebnisse, die in Metadatenfeldern alle Suchbegriffe aufweisen, werden zuerst angezeigt. Danach folgen die Suchergebnisse, die einem oder mehr Suchbegriffen in den Smart-Tags entsprechen. Im obigen Beispiel werden die Suchergebnisse ungefähr in dieser Reihenfolge angezeigt:

  1. Treffer von woman running in den verschiedenen Metadatenfeldern.
  2. Treffer von woman running in den Smart-Tags.
  3. Treffer von woman oder running in Smart-Tags.

Einschränkungen und Best Practices beim Tagging

Optimiertes Smart-Tagging basiert auf Lernmodellen von Markenbildern und den zugehörigen Tags. Diese Modelle können Tags nicht immer perfekt identifizieren. Bei der aktuellen Version der Smart-Tags gibt es folgende Einschränkungen:

  • Subtile Unterschiede in Bildern können nicht erkannt werden. Beispiel: Hemden mit schlanker oder normaler Passform.

  • Tags können nicht anhand von winzigen Mustern oder Teilen eines Bildes identifiziert werden. Beispiel: Logos auf Hemden.

  • Tagging wird in den von Experience Manager unterstützten Sprachen unterstützt. Eine Liste der Sprachen finden Sie in den Versionshinweisen für Smart Content Service.

  • Die Tags, die nicht verarbeitet werden, beziehen sich auf:

    • Nicht visuelle, abstrakte Aspekte, Zum Beispiel das Jahr oder die Jahreszeit der Veröffentlichung eines Produkts, die Stimmung oder die Emotion, die von einem Bild ausgelöst wird, und eine subjektive Konnotation eines Videos.
    • Feine visuelle Unterschiede bei Produkten wie Hemden mit und ohne Kragen oder kleinen Produkt-Logos, die in Produkte eingebettet sind.

Verwenden Sie zum Trainieren des Modells die am besten geeigneten Bilder. Das Training kann nicht rückgängig gemacht werden oder das Trainings-Modell kann nicht entfernt werden. Ihre Tagging-Genauigkeit hängt von der aktuellen Schulung ab. Gehen Sie daher sorgfältig vor.

Um nach Dateien mit Smart-Tags zu suchen (normal oder erweitert), verwenden Sie die Assets-Suche (Volltextsuche). Es gibt kein separates Suchprädikat für Smart-Tags.

HINWEIS

Die Fähigkeit der Smart-Tags, aus Ihren Tags zu lernen und diese Tags auf andere Bilder anzuwenden, hängt von der Qualität der für das Training verwendeten Bilder ab.
Um die bestmöglichen Ergebnisse zu erzielen, empfiehlt Adobe die Verwendung visuell ähnlicher Bilder, um den Service für die einzelnen Tags zu trainieren.

Auf dieser Seite