고려 사항
Auto-Target을(를) 사용할 때 염두에 두어야 할 몇 가지 중요한 고려 사항이 있습니다.
-
특정 활동을 Auto-Target에서 Automated Personalization (으)로 전환할 수 없습니다.
-
Manual 트래픽 할당(기존 A/B Test)에서 Auto-Target (으)로 전환할 수 없으며, 반대로 활동이 초안으로 저장됩니다.
-
한 가지 모델이 만들어져 무작위로 제공되는 트래픽과 전체 우승 경험에 모든 트래픽을 보내는 개인화 전략의 성능을 식별합니다. 이 모델은 기본 환경에서만 히트 및 전환을 고려합니다.
두 번째 모델 세트의 트래픽은 각 모델링 그룹 (AP) 또는 경험 (AT)에 대해 빌드됩니다. 이러한 각 모델에 대해 모든 환경의 히트 및 전환이 고려됩니다.
요청은 환경에 관계없이 동일한 모델로 제공됩니다. 그러나, 복수의 트래픽은 식별된 전체 우승 경험이 실제 동작과 일관되도록 기본 환경에서 가져와야 합니다.
-
최소 2개의 경험을 사용합니다.
Terminology
다음 용어는 Auto-Target에 대해 논의할 때 유용합니다.
용어 | 정의 |
---|---|
Multi-armed bandit | 최적화에 대한 multi-armed bandit 접근 방식은 탐색 학습과 해당 학습의 이용 간에 균형을 이룹니다. |
Random Forest | Random Forest는 선도적인 기계 학습 접근 방식입니다. 데이터 과학 스피크에서 방문자와 방문 속성을 기반으로 많은 의사 결정 트리를 구성하여 작동하는 앙상블 분류, 즉 회귀 방법이다. Target 내에서 Random Forest를 사용하여 각 특정 방문자에 대해 전환 가능성이 가장 높거나 방문당 매출이 가장 높을 것으로 예상되는 경험을 결정합니다. |
Thompson 샘플링 | Thompson 샘플링의 목표는 해당 경험을 찾는 "비용"을 최소화하면서 전체적(개인화되지 않음)으로 가장 좋은 경험을 결정하는 것입니다. 톰슨 샘플링은 항상 두 경험 사이에 통계적 차이가 없더라도 승자를 선택합니다. |
Auto-Target 작동 방식
아래 링크에서 Auto-Target 및 Automated Personalization의 원본으로 사용하는 데이터 및 알고리즘에 대해 자세히 알아보세요.
용어 | 세부 사항 |
---|---|
Random Forest 알고리즘 | Auto-Target과(와) Automated Personalization 모두에서 사용되는 Target의 기본 개인화 알고리즘은 Random Forest입니다. Random Forest와 같은 앙상블 방법은 구성 학습 알고리즘 중 어느 것으로부터도 얻을 수 있는 것보다 더 나은 예측 성능을 얻기 위해 다중 학습 알고리즘을 사용한다. Automated Personalization 및 Auto-Target 활동의 Random Forest 알고리즘은 교육 시간에 다수의 의사 결정 트리를 구성하여 작동하는 분류 또는 회귀 방법입니다. |
Target의 Personalization 알고리즘에 대한 데이터 업로드 | Auto-Target 및 Automated Personalization 모델에 대한 데이터를 입력하는 방법에는 여러 가지가 있습니다. |
Target의 Personalization 알고리즘에 대한 데이터 수집 | Target의 개인화 알고리즘에서 다양한 데이터를 자동으로 수집합니다. |
트래픽 할당 결정
활동의 목표에 따라 제어와 통제 경험과 개인화된 경험 간에 서로 다른 트래픽 할당을 선택할 수 있습니다. 활동을 라이브 상태로 만들기 전에 이 목표를 결정하는 것이 좋습니다.
Custom Allocation 드롭다운 목록에서 다음 옵션 중 하나를 선택할 수 있습니다.
- Evaluate Personalization Algorithm (50/50)
- Maximize Personalization Traffic (90/10)
- Custom Allocation
다음 표에서는 세 가지 옵션에 대해 설명합니다.
활동 목표 | 제안된 트래픽 할당 | 트레이드오프 |
---|---|---|
Evaluate Personalization Algorithm (50/50): 목표가 알고리즘을 테스트하는 것이면 제어 및 타깃팅된 알고리즘 간에 50/50%로 분할된 방문자를 사용합니다. 이 분할은 가장 정확한 상승도 추정치를 제공합니다. 임의 경험을 제어로 사용하는 것이 좋습니다. | 50% 통제/50% 개인화 경험 분할 |
|
Maximize Personalization Traffic (90/10): 목표가 "상시 설정" 활동을 만드는 것이면 10%의 방문자를 제어 알고리즘에 추가하여 충분한 데이터를 보장함으로써 시간에 따른 학습이 계속 진행될 수 있게 합니다. 여기서 장점은 더 많은 트래픽 비율을 개인화하는 대신 정확한 상승도를 파악하는 데는 정밀도가 떨어진다는 점입니다. 목표에 관계없이, 특정 경험을 제어로 사용할 때 권장되는 트래픽 분할입니다. | 10%~30% 통제/70%~90% 개인화된 경험 분할을 사용하는 것이 좋습니다. |
|
사용자 지정 할당 | 백분율을 원하는 대로 수동으로 분할하십시오. |
|
Control 백분율을 조정하려면 Traffic Allocation 창에서 Experiences을(를) 클릭한 다음 원하는 대로 백분율을 조정하십시오. 통제군은 10% 미만으로 줄일 수 없습니다.
특정 경험을 선택하여 컨트롤로 사용하거나 임의의 선택 사항을 사용할 수 있습니다.
Automated Personalization보다 Auto-Target을(를) 언제 선택해야 합니까?
Automated Personalization보다 Auto-Target을(를) 사용할 수 있는 시나리오가 몇 가지 있습니다.
- 경험을 형성하기 위해 자동으로 결합되는 개별 오퍼가 아닌 전체 경험을 정의하려는 경우.
- 사용자 지정 코드 편집기, 여러 경험 대상 등, Auto Personalization에서 지원하지 않는 Visual Experience Composer (VEC) 기능의 전체 집합을 사용하려면
- 다양한 경험에서 내 페이지의 구조를 변경하려는 경우. 예를 들어 홈 페이지에서 요소를 다시 정렬하려면 Auto-Target이(가) Automated Personalization보다 더 적합합니다.
Auto-Target은(는) Automated Personalization과(와) 어떤 공통점이 있습니까?
알고리즘은 각 방문에 대해 유리한 결과를 최적화합니다.
- 알고리즘은 최고의 경험을 제공하기 위해 방문자의 전환 성향(또는 전환으로 인한 예상 매출)을 예측합니다.
- 기존 세션이 종료되면 방문자에게 새 경험을 부여할 수 있습니다(방문자가 컨트롤 그룹에 속해 있지 않은 경우 첫 번째 방문에서 할당된 경험은 후속 방문에도 동일하게 유지됨).
- 세션 내에서는 시각적 일관성을 유지하기 위해 예측이 변경되지 않습니다.
이 알고리즘은 방문자 행동 변화에 적응합니다.
- Multi-arm bandit을 사용하면 모델이 항상 작은 부분 트래픽을 "지출"하여 활동 학습 기간 동안 계속 학습하고 이전에 학습한 트렌드의 과도한 사용을 방지할 수 있습니다.
- Target이(가) 항상 변화하는 방문자 환경 설정을 활용하고 있는지 확인하기 위해 최신 방문자 동작 데이터를 사용하여 기본 모델이 24시간마다 다시 작성됩니다.
- 알고리즘이 개인에 대해 가장 성과가 좋은 경험을 결정할 수 없는 경우 개인화된 승자를 계속 찾으면서도 전체적으로 성과가 가장 좋은 경험을 표시하도록 자동으로 전환합니다. 성과가 가장 좋은 경험은 Thompson 샘플링을 사용하여 발견됩니다.
알고리즘은 단일 목표 지표에 대해 계속 최적화됩니다.
- 이 지표는 전환 기반 또는 매출 기반(좀 더 구체적으로 Revenue per Visit)일 수 있습니다.
Target은(는) 방문자에 대한 정보를 자동으로 수집하여 개인화 모델을 만듭니다.
- Auto-Target 및 Automated Personalization에서 사용되는 매개 변수에 대한 자세한 내용은 Automated Personalization 데이터 수집을 참조하세요.
Target은(는) 자동으로 모든 Adobe Experience Cloud 공유 대상을 사용하여 개인화 모델을 만듭니다.
- 모델에 대상을 추가하기 위해 특정한 작업을 수행할 필요가 없습니다. Target에서 Experience Cloud Audiences 사용에 대한 자세한 내용은 Experience Cloud 대상자를 참조하십시오.
마케터는 오프라인 데이터, 성향 점수 또는 기타 사용자 지정 데이터를 업로드하여 개인화 모델을 만들 수 있습니다.
- Auto-Target 및 Automated Personalization🔗에 대한 데이터 업로드에 대해 자세히 알아보세요.
Auto-Target과(와) Automated Personalization의 차이점은 무엇입니까?
Auto-Target은(는) 개인화된 모델을 만드는 데 Automated Personalization보다 적은 트래픽을 필요로 하는 경우가 많습니다.
Auto-Target 또는 Auto Personalization 모델을 만드는 데 필요한 트래픽의 양 경험당 은 동일하지만 일반적으로 Auto-Target 활동보다 Automated Personalization 활동에 더 많은 경험이 있습니다.
예를 들어, 두 개의 위치에 위치당 두 개의 오퍼를 만든 Auto Personalization 활동이 있었다면, 활동에 총 4개(2 = 4)의 경험이 포함되어 있을 것입니다(제외 없음). Auto-Target을(를) 사용하여 경험 1을 위치 1에서 오퍼 1을 포함하고, 위치 2에서 오퍼 2를 포함하도록 설정하고, 경험 2를 위치 1에서 오퍼 1을 포함하고, 위치 2에서 오퍼 2를 포함하도록 설정할 수 있습니다. Auto-Target을(를) 사용하면 한 경험 내에 여러 가지 변경이 생기도록 선택할 수 있으므로 활동에 있는 총 경험 수를 줄일 수 있습니다.
Auto-Target의 경우 간단한 경험 법칙을 사용하여 트래픽 요구 사항을 이해할 수 있습니다.
- Conversion이(가) 성공 지표인 경우: 경험당 하루에 1,000번의 방문과 최소 50번의 전환이 필요하며, 활동에는 최소 7,000번의 방문과 350번의 전환이 있어야 합니다.
- Revenue per Visit이(가) 성공 지표인 경우: 경험당 하루에 1,000번의 방문과 최소 50번의 전환이 필요하며, 활동에는 경험당 최소 1,000번의 전환이 있어야 합니다. RPV를 사용할 때에는 전환율을 사용할 때와 비교하여 방문 매출에 일반적으로 존재하는 더 높은 데이터 분산으로 인해 모델을 만드는 데 더 많은 데이터가 필요합니다.
Auto-Target에 완전한 설정 기능이 있습니다.
- Auto-Target이(가) A/B 활동 워크플로에 포함되어 있으므로 Auto-Target은(는) 보다 발전되고 완전한 Visual Experience Composer (VEC)의 이점을 얻을 수 있습니다. Auto-Target과(와) 함께 QA 링크을(를) 사용할 수도 있습니다.