Customer AI傾向評分模型詳細資料

模型概覽 model-overview

  • 模型名稱和版本: Customer AI傾向分數模型
  • 模型用途:模型旨在透過預測消費者執行指定動作(例如購買、註冊訂閱或參與電子郵件行銷活動)的可能性,為行銷人員和客戶參與團隊提供可操作的深入分析。 這些輸出可讓企業最佳化對象細分,並根據預測的行為將消費者互動個人化。
  • 目標使用者:此模型的主要使用者是行銷專業人員、資料分析師和客戶參與團隊,他們利用Real-Time CDP來推動資料導向行銷策略。
  • 使用案例:此模型主要用於消費者細分、目標式行銷和流失預測。 企業可運用此模型來預測消費者購買意圖、最佳化行銷活動,以及增強個人化工作。 例如,電子商務公司可能會使用模型來識別高意向的購物者,並為他們提供專屬促銷活動。
  • 痛點:行銷人員經常難以找出要鎖定目標的正確消費者,並最佳化參與工作。 此模型提供以資料為導向的消費者目標定位方法,減少猜測次數,確保行銷資源得到有效配置。
  • 可能誤用:模型不應該用於高風險的使用案例,例如財務信用評分、醫療診斷或法律評估。 此外,模型不應用於預測個人敏感行為(例如健康狀況、政治偏好)。

模型詳細資料 model-details

  • 模型型別:這是監督學習分類模型,可預測事件發生(例如購買、流失、參與)的機率,並提供歷史消費者資料。 使用漸層提升決策樹(GBDT)搭配Logistic回歸對其進行訓練,以模型化傾向分數。
  • 輸入:模型會處理消費者行為資料、人口統計屬性以及歷史互動。 這包括網站造訪頻率、過去的購買記錄、與行銷電子郵件的互動以及人口統計資訊等資料。
  • 輸出:模型會輸出介於0到100之間的分數,其中較高的值表示在已評分的母體同類群組中發生預測事件的可能性較高。 此外,它可提供功能重要性分數,讓行銷人員瞭解哪些因素會影響預測。

範例輸入

{
  "customer_id": 12345,
  "past_purchases": 3,
  "last_visit_days": 7,
  "email_click_rate": 0.4
}

範例輸出

{
  "customer_id": 12345,
  "SCORE": 89
}

模型訓練 model-training

  • 訓練資料與預先處理:每個客戶的訓練資料集都是直接從他們在Adobe Experience Platform中的資料取得。 這包括收集並儲存在Adobe Experience Platform執行個體中的客戶歷史互動、異動記錄、行為參與記錄及人口統計資訊。 資料集會利用客戶特定資料,涵蓋他們選擇的時間範圍,擷取他們獨特的季節性趨勢和參與模式。 使用前,每個客戶的資料集都會根據資料特性進行預先處理,包括遺漏值處理、分類編碼、功能縮放、極端值偵測和功能工程,以確保特定使用案例的最佳品質和可用性。
    • 用於培訓的消費者資料不會跨客戶使用。
  • 訓練規格:模型使用GBM (已針對結構化資料最佳化)來運用LightGBM。 它接受有關歷史客戶事件序列的培訓,以識別預測性行為模式。
  • 訓練架構:模型是使用LightGBM和scikit-learn開發,並託管在Adobe AI雲端基礎結構上。
  • 訓練基礎結構: Databricks叢集。

模型評估 model-evaluation

  • 評估量度和程式:模型的有效性是使用AUC-ROC測量的。 由於Customer AI針對範圍非常廣泛的客戶使用案例,因此無法得知其作業範圍。 因此我們使用獨立於觸及和預算的量度AUC。
  • 評估資料與預先處理:評估資料包含保留消費者記錄,而且會以類似訓練資料的方式預先處理,具有功能標準化、編碼和清理步驟,以符合輸入格式預期。 結果視窗經過之後,我們可以執行最終效能評估。

模型部署 model-deployment

  • 模型部署:模型託管在Adobe Experience Platform AI服務上,並與各種Adobe應用程式整合。 這可透過API端點使用,跨行銷和消費者參與工作流程無縫存取即時預測和批次處理。
  • 模型監視:模型會透過模型監視持續監視,以檢視訓練設定的漂移。 定期的再訓練(3個月一次)會自動執行。
  • 模型更新:模型會使用更新的消費者互動資料在幾個月內重新訓練一次(最多六個月一次),以確保持續的相關性。 定期重新訓練有助於減輕資料漂移和季節性波動,而後者可能會影響預測準確度。

說明 explainability

模型解釋:模型運用SHapley Additive Explanations (SHAP)來量化每個輸入功能對其預測的影響,提供消費者屬性如何影響傾向分數的透明度。 SHAP值可讓全域可解性,找出所有預測中最具影響力的因素,以及當地可解性,說明特定消費者的個人預測。 模型也支援Local Interpretable Model-Agnostic Explanations (LIME)。

公平性和偏差 fairness-and-bias

  • 模型公平性:此模型已接受與Cookie ID相關的匿名化行為資料的訓練,無法存取受保護的人口統計屬性,例如年齡、性別或種族。 因此,直接測量敏感群組的公平性並不可行。 減少偏誤的措施包括標準化使用者活動頻率、抑制過度顯著的功能,以及跨同類群組執行評分校正檢查。 我們透過評估隨機保留流量的模型預測,來說明時近(Recency)偏差並監控曝光偏差。 持續評估已準備就緒,可在模型部署期間偵測及減少偏誤放大和回饋迴路。
  • 資料偏差:資料集主要來自參與度高的使用者,這可能會造成選擇偏差。 為了緩解此問題,模型會套用取樣策略。 根據使用案例,客戶應考慮模型輸出中的潛在偏差如何與其預期應用程式相符或影響。

穩健性 robustness

模型健全性:模型保持對新消費者記錄的強泛化能力。 不同消費者區段的效能保持穩定,但當使用者行為與歷史模式大幅不同時,效能會輕微下降。

道德考量 ethical-considerations

與模型相關的道德考量:此模型適用於行銷使用案例,如果將其套用至敏感或受規管的網域,如信用或僱用,客戶應格外小心。 輸出是機率性的,並從行為資料中衍生,可能反映歷史或呈現偏見。 建議客戶採用人為監督。 Adobe Experience Platform遵循負責任的AI准則,確保在部署之前模型經過偏見稽核、公平性測試和人為監督。 如需詳細資訊,請參閱Adobe AI道德原則

recommendation-more-help
8959a20a-a58f-4057-9f82-870706c576e9