Data Science Workspace疑難排解指南

NOTE
不再提供 Data Science 工作環境 購買。
本文檔適用於先前有權使用數據科學工作環境的現有客戶。

此檔提供了有關Adobe Experience Platform Data Science Workspace的常見問題解答。 有關一般 API 的問題和故障排除 Platform ,請參閱 Adobe Experience Platform API 故障排除指南

JupyterLab Notebook 查詢狀態卡在執行狀態

JupyterLab 筆記本可能指示單元在某些記憶體不足的情況下無限期地處於執行狀態。 例如,在查詢大型資料集或執行多個後續查詢時,JupyterLab 筆記本可能會耗盡可用記憶體來商店生成的數據幀物件。 在這種情況下可以看到一些指標。 首先,內核進入空閒狀態,平均儘管單元顯示為執行,由單元格旁邊的圖示指示 [*] 。 此外,底部欄指示已使用/可用的 RAM 量。

可用記憶體

在讀取數據期間,記憶體可能會增長,直到達到最大分配內存量。 一旦達到最大記憶體並且內核重新啟動,就會釋放記憶體。 這意味著在這種情況下,由於內核重新啟動,已用記憶體可能會顯示為非常低,而在重新啟動之前,記憶體將非常接近最大分配的 RAM。

若要解決此問題,請選取JupyterLab右上方的齒輪圖示,並將滑桿滑至右側,接著選取​ 更新設定 ​以配置更多RAM。 此外,如果您正在執行多個查詢,而RAM值已接近配置的最大值,除非您需要先前查詢的結果,請重新啟動核心以重設可用的RAM量。 這可確保您擁有可用於目前查詢的最大RAM量。

配置更多ram

如果您正在配置最大記憶體(RAM)量,但仍然遇到此問題,您可以透過減少資料行或資料範圍,修改查詢以在較小的資料集大小上操作。 若要使用完整的資料量,建議您使用Spark筆記本。

JupyterLab 環境未載入 Google Chrome

IMPORTANT
此問題已解決,但可能仍存在於Google Chrome 80.x瀏覽器中。 請確定您的Chrome瀏覽器為最新狀態。

使用Google Chrome瀏覽器80.x版時,預設會封鎖所有第三方Cookie。 此原則可防止JupyterLab在Adobe Experience Platform中載入。

若要修正此問題,請使用下列步驟:

在您的Chrome瀏覽器中,導覽至右上角並選取​ 設定 (或者,您可以複製並貼上位址列中的"chrome://settings/")。 接著,捲動至頁面底部,然後按一下​ 進階 ​下拉式清單。

chrome進階

隱私權與安全性 ​區段隨即顯示。 接著,按一下​ 網站設定,接著按一下​ Cookie和網站資料

chrome進階

chrome進階

最後,將「封鎖第三方Cookie」切換為「關閉」。

chrome進階

NOTE
或者,您可以停用第三方Cookie並新增[*。]ds.adobe.net加入允許清單。

導航到位址欄中的“chrome://flags/”。 使用右側的下拉功能表Search並停用標題為 “SameSite 依預設 cookie 的 SameSite ” 標幟。

停用 SameSite 標幟

在步驟 2 之後,系統會提示您重新啟動瀏覽器。 重新啟動後,Jupyterlab應該可以存取。

為什麼我無法在Safari中存取JupyterLab?

Safari預設會在Safari < 12中停用第三方Cookie。 由於您的Jupyter虛擬機器器執行個體與其上層框架位於不同的網域,因此Adobe Experience Platform目前需要啟用協力廠商Cookie。 請啟用第三方Cookie或切換到其他瀏覽器,例如Google Chrome。

對於Safari 12,您必須將使用者代理程式切換至'Chrome'或'Firefox'。 若要切換您的使用者代理程式,請開啟​ Safari ​功能表並選取​ 偏好設定。 偏好設定視窗即會出現。

Safari 偏好設定

在Safari偏好設定視窗中,選取​ 進階。 然後核取功能表列​ 方塊中的 ​顯示[開發]功能表。 完成此步驟後,您可以關閉偏好設定視窗。

Safari進階

接著,從頂端導覽列選取​ 開發 ​功能表。 從​ 開發 ​下拉式清單中,暫留在​ 使用者代理程式 ​上。 您可以選擇 Chrome 按讚使用的 OR Firefox 使用者代理字串。

開發功能表

我嘗試上傳或刪除JupyterLab中的檔案時,為何會看到「403禁止」訊息?

如果您的瀏覽器啟用了廣告攔截軟體(如 Ghostery 或 AdBlock Plus),則每個廣告攔截軟體 JupyterLab 中必須允許域“*.adobe.net”才能正常運行。 這是因為JupyterLab虛擬機器器執行於Experience Platform網域以外的網域。

為什麼我 Jupyter Notebook 的外觀的某些部分打亂或不呈現為代碼?

如果相關儲存格意外從「代碼」變更為「Markdown」,就可能發生這種情況。 當程式碼儲存格成為焦點時,按下按鍵組合​ ESC+M ​會將儲存格的型別變更為Markdown。 儲存格的型別可以透過所選儲存格記事本頂端的下拉式指示器來變更。 若要將儲存格型別變更為程式碼,請先選取您要變更的指定儲存格。 接著,按一下指出儲存格目前型別的下拉式清單,然後選取「程式碼」。

如何安裝自訂Python資料庫?

Python核心已預先安裝許多常用的機器學習程式庫。 不過,您可以在程式碼儲存格中執行以下命令,以安裝其他自訂程式庫:

!pip install {LIBRARY_NAME}

有關預安裝 Python 資料庫的完整清單,請参閱 JupyterLab 使用手冊的附錄部分。

我可以安裝自定義 PySpark 資料庫嗎?

很遺憾,您無法為PySpark核心安裝其他程式庫。 但是,您可以聯繫您的Adobe Systems 客戶服務代表為您安裝自定義 PySpark 資料庫。

如需預先安裝的PySpark程式庫清單,請參閱JupyterLab使用手冊🔗的附錄區段。

可以為JupyterLab Spark或PySpark核心設定Spark叢集資源嗎?

可以透過將以下塊添加到筆記本的第一個儲存格來設定資源:

%%configure -f
{
    "numExecutors": 10,
    "executorMemory": "8G",
    "executorCores":4,
    "driverMemory":"2G",
    "driverCores":2,
    "conf": {
        "spark.cores.max": "40"
    }
}

有關群集資源配置的詳細信息 Spark (包括可配置屬性的完整清單),請參閱 JupyterLab 使用手冊

為什麼在嘗試為較大的數據集執行某些任務時收到錯誤?

如果您收到錯誤的原因如下 Reason: Remote RPC client disassociated. Likely due to containers exceeding thresholds, or network issues. 這通常意味著驅動程式或執行程式記憶體不足。 有關數據限制以及如何在大型數據集上執行任務的詳細資訊,請參閱 JupyterLab 筆記本數據 訪問 文檔。 通常,可以通過將 mode 從更改為 interactive batch來解決此錯誤。

此外,在編寫大型 Spark/PySpark 數據集時,在執行寫入代碼之前快取數據 (df.cache()) 可以大大提高性能。

如果在讀取數據時遇到問題並將轉換應用於數據,請嘗試在轉換之前快取數據。 緩存數據可防止通過網路進行多次讀取。 通過讀取數據進行開始。 下一個,快取 (df.cache()) 數據。 最後,執行您的轉換。

為什麼我的Spark/PySpark筆記本需要這麼長時間來讀取和寫入數據?

如果要對資料執行轉換(例如使用 fit()),則轉換可能會執行多次。 要提高性能,請在執行 之前fit()使用 緩存df.cache()數據。這樣可確保只執行一次轉換,並防止跨網路多次讀取。

建議的順序: ​從讀取資料開始。 接著,執行轉換,接著快取(df.cache())資料。 最後,執行fit()

為什麼我的Spark/PySpark筆記型電腦無法執行?

如果您收到下列任何錯誤:

  • 工作已中止,因為中繼失敗……只能壓縮每個資料分割中具有相同元素數量的RDD。
  • 遠端RPC使用者端已解除關聯,且發生其他記憶體錯誤。
  • 讀取和寫入資料集時效能不佳。

在寫入資料之前,請檢查以確定您正在快取資料(df.cache())。 在筆記型電腦中執行程式碼時,使用df.cache()在動作(例如fit())之前可大幅改善筆記型電腦效能。 在寫入資料集之前使用df.cache()可確保只執行一次轉換,而非多次。

資料科學Workspace中的Docker Hub限制限制

自2020年11月20日起,匿名和免費驗證使用Docker Hub的費率限制已生效。 匿名與免費Docker Hub使用者限製為每六小時100個容器影像提取請求。 如果您受這些變更影響,您將會收到此錯誤訊息: ERROR: toomanyrequests: Too Many Requests.You have reached your pull rate limit. You may increase the limit by authenticating and upgrading: https://www.docker.com/increase-rate-limits.

目前,如果您嘗試在六小時內建立100部配方筆記本,或如果您在資料科學Workspace中使用經常擴充和縮減的Spark筆記本,此限制僅會影響您的組織。 不過,這不太可能,因為這些專案執行的叢集在閒置之前會維持作用中兩個小時。 這會減少叢集處於作用中狀態時所需的提取數。 如果您收到上述任何錯誤,則需要等到重設Docker限製為止。

如需Docker Hub速率限制的詳細資訊,請瀏覽DockerHub檔案。 我們正在研究此問題的解決方案,並期待於後續版本中推出。

recommendation-more-help
cc79fe26-64da-411e-a6b9-5b650f53e4e9