客户人工智能倾向评分模型详细信息

模型概述 model-overview

  • 模型名称和版本:客户人工智能倾向评分模型
  • 模型目的:该模型旨在通过预测消费者执行给定操作(如购买、注册订阅或参与电子邮件营销活动)的概率,为营销人员和客户参与团队提供可操作的见解。 这些输出允许企业优化受众分段并根据预测的行为对消费者交互进行个性化。
  • 目标用户:此模型的主要用户是营销专业人员、数据分析师和客户参与团队,他们利用Real-Time CDP来制定数据驱动型营销策略。
  • 用例:此模型主要用于消费者细分、目标营销和流失预测。 企业可利用此模型来预测消费者购买意图、优化营销活动并增强个性化工作。 例如,电子商务公司可能使用该模型来识别意图强烈的购物者,并向他们提供独家促销活动。
  • 痛点:营销人员通常难以确定合适的消费者以定位并优化参与工作。 此模型通过提供数据驱动型消费者定位方法来减少猜测工作,从而确保营销资源得到有效分配。
  • 可能误用:模型不应用于高风险用例,例如财务信用评分、医疗诊断或法律评估。 此外,该模型不应用于预测个人敏感行为(如健康状况、政治偏好)。

模型详细信息 model-details

  • 模型类型:这是一个有监督的学习分类模型,它可以在给定历史消费者数据的情况下预测发生事件(如购买、流失、参与)的概率。 利用梯度提升决策树(GBDT)结合Logistic回归对倾向分数进行训练。
  • 输入:模型处理消费者行为数据、人口统计属性和历史交互。 这包括网站访问频率、过去的购买历史记录、与营销电子邮件的接触情况以及人口统计信息等数据。
  • 输出:模型输出一个介于0和100之间的分数,其中较高的值表示在得分群体同类群组中发生预测事件的可能性较高。 此外,它提供了功能重要性分数,从而让营销人员了解哪些因素会影响预测。

示例输入

{
  "customer_id": 12345,
  "past_purchases": 3,
  "last_visit_days": 7,
  "email_click_rate": 0.4
}

示例输出

{
  "customer_id": 12345,
  "SCORE": 89
}

模型训练 model-training

  • 训练数据和预处理:每个客户的训练数据集直接源自Adobe Experience Platform中他们自己的数据。 这包括客户的历史交互、事务记录、行为参与日志以及在其Adobe Experience Platform实例中收集和存储的人口统计信息。 该数据集利用客户在其所选时间范围内的特定数据,捕获其独特的季节性趋势和参与模式。 在使用之前,每个客户的数据集将根据其数据特征进行预处理,包括缺失值处理、分类编码、特征缩放、异常值检测和特征工程,以确保其特定用例的最佳质量和可用性。
    • 用于培训的消费者数据不会跨客户使用。
  • 训练规范:模型使用GBM利用LightGBM,已针对结构化数据进行优化。 它根据历史客户事件序列进行培训,以识别预测性行为模式。
  • 训练框架:模型是使用LightGBM和scikit-learn开发的,并托管在Adobe AI云基础架构上。
  • 训练基础结构: Databricks个群集。

模型评估 model-evaluation

  • 评估量度和过程:使用AUC-ROC衡量模型的有效性。 由于客户人工智能针对范围非常广泛的客户用例,因此不能知道其操作范围。 因此,我们使用独立于触及范围和预算的量度AUC。
  • 评估数据和预处理:评估数据包括保持使用记录,其预处理过程与训练数据类似,具有特征标准化、编码和清理步骤,以匹配输入格式预期。 结果窗口过后,我们可以执行最终性能评估。

模型部署 model-deployment

  • 模型部署:模型托管在Adobe Experience Platform AI服务上并与各种Adobe应用程序集成。 它通过API端点提供,允许无缝访问以进行实时预测和跨营销和消费者参与工作流的批量处理。
  • 模型监视:通过模型监视持续监视模型,以查看与训练设置有关的偏差。 定期的再培训(3个月一次)将自动运行。
  • 模型更新:使用更新的消费者交互数据,模型会在几个月内重新训练一次(最多六个月一次),以确保持续的相关性。 定期重新训练有助于缓解数据漂移和季节性波动,这些波动可能会影响预测准确性。

解释 explainability

模型解释:模型利用SHapley Additive Explanations (SHAP)来量化每个输入功能对其预测的影响,从而公开消费者属性如何影响倾向分数。 SHAP值既支持全球可解释性,确定所有预测中最具影响力的因素,也支持局部可解释性,解释针对特定消费者的个人预测。 模型还支持Local Interpretable Model-Agnostic Explanations (LIME)。

公平和偏见 fairness-and-bias

  • 模型公平性:此模型针对与Cookie ID关联的匿名行为数据进行训练,无法访问受保护的人口统计属性,如年龄、性别或民族。 因此,直接衡量敏感群体之间的公平性是不可行的。 减轻偏差的努力包括标准化用户活动频率、抑制过度主导特征以及跨同类群组执行得分校准检查。 我们通过评估随机维持流量上的模型预测来考虑回访间隔偏差和监控曝光偏差。 正在进行评估,以在模型部署期间检测和减少偏置放大和反馈循环。
  • 数据偏差:数据集主要来自高参与度用户,这可能会引入选择偏差。 为了缓解此问题,模型应用了取样策略。 根据用例,客户应考虑模型输出中的潜在偏差如何与其预期应用程序一致或影响。

稳健性 robustness

模型稳健性:模型保持了对新使用者记录的强泛化性。 不同消费者细分市场的性能保持稳定,但当用户行为与历史模式显着不同时,性能会略有下降。

道德注意事项 ethical-considerations

与模型相关的道德考量:此模型适用于营销用例,如果将其应用于敏感或受管控的域(如信用或就业),客户应格外谨慎。 输出是概率性的,由行为数据得出,这些行为数据可能反映历史或呈现偏差。 我们鼓励客户采用人为监督。 Adobe Experience Platform遵循负责任的人工智能准则,确保在部署之前对模型进行偏见审核、公平性测试和人为监督。 有关详细信息,请查阅Adobe AI道德原则

recommendation-more-help
8959a20a-a58f-4057-9f82-870706c576e9