Data Science Workspace 故障排除指南

NOTE
不再可供购买数据科学工作区。
本文档适用于先前有权访问数据科学工作区的现有客户。

本文档提供了有关 Adobe Experience Platform Data Science Workspace的常见问题解答。 有关 API 的一般问题和故障排除 Platform ,请参阅 Adobe Experience Platform API 故障排除指南

JupyterLab 笔记本查询状态停滞在执行状态

JupyterLab 笔记本可以指示单元格在某些内存不足的情况下无限期地处于执行状态。 例如,在查询大型数据集或执行多个后续查询时,JupyterLab Notebook可能会用尽可用内存来存储生成的数据流对象。 在此情况下可以看到一些指标。 首先,即使单元格旁边的[*]图标显示正在执行,内核仍进入空闲状态。 此外,底部栏显示已使用/可用的RAM数量。

可用RAM

在数据读取期间,内存可能会增加,直到达到您分配的最大内存量。 一旦达到最大内存并且内核重新启动,就会释放内存。 这意味着,由于内核重新启动,在此情况下使用的内存可能显示为非常低,而在重新启动之前,内存将非常接近分配的最大RAM。

要解决此问题,请选择 JupyterLab 右上角的齿轮图标并将滑块向右滑动,然后选择“更新配置​ ​以分配更多 RAM。此外,如果您正在运行多个查询,并且您的 RAM 值接近最大分配量,除非您需要之前查询的结果,否则请重新启动内核以重置可用的 RAM 量。 这可确保您拥有可用于当前查询的最大 RAM 量。

分配更多内存

如果要分配最大内存量 (RAM) 但仍遇到此问题,则可以通过减少列或数据范围来修改查询以在较小的数据集大小上运行。 若要使用全部数据量,建议利用 Spark 笔记本。

Google Chrome中未加载JupyterLab环境

IMPORTANT
此问题已得到解决,但仍可能存在于Google Chrome 80.x浏览器中。 请确保您的Chrome浏览器处于最新状态。

使用Google Chrome浏览器版本80.x时,默认情况下会阻止所有第三方Cookie。 此策略可以阻止JupyterLab在Adobe Experience Platform中加载。

要解决此问题,请执行以下步骤:

在您的Chrome浏览器中,导航到右上角并选择​ 设置(或者,您可以在地址栏中复制并粘贴“chrome://settings/”)。 接下来,滚动到页面底部,然后单击​ 高级 ​下拉列表。

chrome高级

将显示​ 隐私和安全性 ​部分。 接下来,单击​ 网站设置,然后单击​ Cookie和网站数据

chrome高级

chrome高级

最后,将“阻止第三方Cookie”切换为“关闭”。

chrome高级

NOTE
或者,您可以禁用第三方Cookie并添加[*。]ds.adobe.net到允许列表。

导航到地址栏中的“chrome://flags/”。 使用右侧的下拉菜单搜索并禁用标题为 “默认 SameSite cookie” 的标志。

禁用同站点标志

在步骤 2 之后,系统会提示您重新启动浏览器。 重新启动后,Jupyterlab应该可以访问。

为什么在Safari中无法访问JupyterLab?

Safari在Safari < 12中默认禁用第三方Cookie。 由于您的Jupyter虚拟机实例与其父框架驻留在不同的域上,因此Adobe Experience Platform当前要求启用第三方Cookie。 请启用第三方Cookie或切换到其他浏览器,如Google Chrome。

对于Safari 12,您需要将用户代理切换到“Chrome”或“Firefox”。 若要切换用户代理,请打开​ Safari ​菜单并选择​ 首选项。 将出现首选项窗口。

Safari 偏好设置

在 Safari 偏好设置窗口中,选择“高级​ ”。 ​然后检查 在菜单栏中 显示开发菜单 框。 完成此步骤后,您可以关闭首选项窗口。

Safari 高级

接下来,从顶部导航栏中选择“ 开发 ”菜单。 从“开发”下拉列表中,将鼠标悬停在“用户代理​ ”上。您可以选择 Chrome 要使用的 或 Firefox 用户代理字符串。

开发菜单

为什么我在尝试上载或删除JupyterLab中的文件时看到“403禁止访问”消息?

如果您的浏览器启用了广告拦截软件(如 Ghostery 或 AdBlock Plus),则每个广告拦截软件 JupyterLab 中必须允许域“*.adobe.net”才能正常运行。 这是因为JupyterLab虚拟机运行在不同于Experience Platform域的域上。

为什么我 Jupyter Notebook 的外观的某些部分打乱或不呈现为代码?

如果意外地将相关单元格从“代码”更改为“Markdown”,则可能会发生这种情况。 在集中代码单元格时,按组合键​ ESC+M ​会将单元格的类型更改为Markdown。 可以通过笔记本顶部的下拉指示器来更改选定单元格的类型。 要将单元格类型更改为代码,请先选择要更改的给定单元格。 接下来,单击指示单元格当前类型的下拉列表,然后选择“代码”。

如何安装自定义Python库?

Python内核预安装了许多流行的机器学习库。 但是,通过在代码单元格中执行以下命令,可以安装其他自定义库:

!pip install {LIBRARY_NAME}

有关预安装 Python 库的完整列表,请参阅 JupyterLab 用户指南的附录部分。

我可以安装自定义 PySpark 库吗?

很遗憾,您无法为 PySpark 内核安装其他库。 不过,您可以联系您的 Adobe 客户服务代表,以便为您安装自定义 PySpark 库。

有关预安装的 PySpark 库的列表,请参阅 JupyterLab 用户指南的附录部分。

是否可以为 JupyterLab Spark 或 PySpark 内核配置Spark群集资源?

可以通过将以下块添加到笔记本的第一个单元格来配置资源:

%%configure -f
{
    "numExecutors": 10,
    "executorMemory": "8G",
    "executorCores":4,
    "driverMemory":"2G",
    "driverCores":2,
    "conf": {
        "spark.cores.max": "40"
    }
}

有关群集资源配置的详细信息 Spark ,包括可配置属性的完整列表,请参阅 JupyterLab 用户指南

为什么我在尝试为较大的数据集执行某些任务时收到错误?

如果您收到错误的原因如下 Reason: Remote RPC client disassociated. Likely due to containers exceeding thresholds, or network issues. 这通常意味着驱动程序或执行程序内存不足。 有关数据限制以及如何在大型数据集上执行任务的更多信息,请参阅 JupyterLab Notebooks 数据访问 文档。 通常,可以通过将 from 更改为 mode interactive batch来解决此错误。

此外,在编写大型 Spark/PySpark 数据集时,在执行写入代码之前缓存数据 (df.cache()) 可以大大提高性能。

如果在读取数据时遇到问题并将转换应用于数据,请尝试在转换之前缓存数据。 缓存数据可防止通过网络进行多次读取。 从读取数据开始。 接下来,缓存(df.cache())数据。 最后,执行转换。

为什么我的Spark/PySpark笔记本要花这么长时间来读写数据?

如果对数据执行转换(如使用fit()),则转换可能会执行多次。 为了提高性能,请在执行fit()之前使用df.cache()缓存您的数据。 这可确保只执行一次转换,并防止通过网络进行多次读取。

建议顺序: 从读取数据开始。 接下来,执行转换,然后缓存 (df.cache()) 数据。 最后,执行 fit().

为什么我的 Spark/PySpark 笔记本无法运行?

如果您收到以下任何错误:

  • 作业由于阶段失败而中止…只能在每个分区中压缩具有相同数量元素的 RDD。
  • 远程RPC客户端已取消关联和其他内存错误。
  • 读取和写入数据集时性能不佳。

在写入数据之前,请检查以确保您正在缓存数据(df.cache())。 在笔记本中执行代码时,在操作(如fit())之前使用df.cache()可以极大地提高笔记本性能。 在写入数据集之前使用df.cache()可确保仅执行一次转换,而不是执行多次。

数据科学Workspace中的Docker Hub限制限制

自2020年11月20日起,对匿名和自由身份验证使用Docker Hub的费率限制已生效。 匿名和免费Docker Hub用户限制为每六小时100个容器图像提取请求。 如果您受这些更改影响,您将收到此错误消息:ERROR: toomanyrequests: Too Many Requests.You have reached your pull rate limit. You may increase the limit by authenticating and upgrading: https://www.docker.com/increase-rate-limits.

目前,仅当您尝试在六小时内构建100个按配方生产的笔记本,或者如果您在数据科学Workspace中使用频繁进行放大和缩小的基于Spark的笔记本,此限制才会影响您的组织。 但是,这不太可能,因为运行这些服务器的群集在空闲之前保持活动状态两个小时。 这减少了群集处于活动状态时所需的Pull数。 如果收到上述任何错误,则需要等待重置Docker限制。

有关Docker Hub速率限制的详细信息,请访问DockerHub文档。 我们正在研究此问题的解决方案,并期待在后续版本中推出此解决方案。

recommendation-more-help
cc79fe26-64da-411e-a6b9-5b650f53e4e9