UI でのデータフローの削除
作成対象:
- 開発者
ソース ワークスペースを使用すると、エラーが含まれていたり古くなったりした既存のバッチおよびストリーミングデータフローを削除できます。
このチュートリアルでは、 ソース ワークスペースを使用してデータフローを削除する手順を説明します。
はじめに
このチュートリアルは、Adobe Experience Platform の次のコンポーネントを実際に利用および理解しているユーザーを対象としています。
データフローの削除
Experience Platform UI で、左側のナビゲーションから Sources を選択して Sources ワークスペースにアクセスし、上部のヘッダーから Dataflows を選択します。
データフロー ページが表示されます。 このページには、ターゲットデータセット、ソース、アカウント名、作成日に関する情報を含め、表示可能なデータフローがリストされます。
左上のフィルターアイコン(
並べ替えパネルには、すべてのソースのリストが表示されます。 リストから複数のソースを選択して、選択した特定のソースに関連付けられたフィルター適用済みのデータフローの選択にアクセスできます。
操作するソースを選択して、既存のデータフローのリストを表示します。 削除するデータフローを特定したら、データフロー名の横にある省略記号(...
)を選択します。
ドロップダウンメニューが表示され、データフローのスケジュールを編集、データフローを無効にする、または完全に削除するためのオプションが提供されます。
データフローを削除する場合は、「削除」を選択します。
最終確認ダイアログボックスが表示されます。 「削除」を選択してプロセスを完了します。
しばらくすると、画面の下部に確認ボックスが表示され、削除が成功したことを確認します。
次の手順
このチュートリアルでは、Sources ワークスペースを使用して既存のデータフローを正常に削除しました。
API 呼び出しを使用してプログラムでこれらの操作を実行する手順については、Flow Service API を使用したデータフローの削除に関するチュートリアルを参照してください。
Experience Platform
- ソースの概要
- 使用可能なソースコネクタ
- アドビアプリケーション
- 広告
- Analytics
- クラウドストレージ
- 同意および環境設定
- CRM
- カスタマーサクセス
- データベース
- Amazon Redshift コネクタ
- Azure HDInsights 上の Apache Hive コネクタ
- Azure HDInsights 上の Apache Spark コネクタ
- Azure Databricks コネクタ
- Azure Data Explorer コネクタ
- Azure Synapse Analytics コネクタ
- Azure Table Storage コネクタ
- Couchbase コネクタ
- Google BigQuery コネクタ
- GreenPlum コネクタ
- HP Vertica コネクタ
- IBM DB2 コネクタ
- MariaDB コネクタ
- Microsoft SQL Server コネクタ
- MySQL コネクタ
- Oracle コネクタ
- Phoenix コネクタ
- PostgreSQL コネクタ
- Snowflake ストリーミングコネクタ
- Snowflake コネクタ
- Teradata Vantage コネクタ
- データおよび ID パートナー
- e コマース
- ローカルシステム
- マーケティングオートメーション
- 支払い
- プロトコル
- ストリーミング
- API チュートリアル
- ベース接続の作成
- 広告
- Analytics
- クラウドストレージ
- 同意および環境設定
- CRM
- カスタマーサクセス
- データベース
- Amazon Redshift
- Azure HDInsights 上の Apache Hive
- Azure HDInsights 上の Apache Spark
- Azure Databricks
- Azure Data Explorer
- Azure Synapse Analytics
- Azure Table Storage
- Couchbase
- Google BigQuery
- GreenPlum
- HP Vertica
- IBM DB2
- MariaDB
- MySQL
- Oracle
- Phoenix
- PostgreSQL
- Snowflake ストリーミング
- Snowflake
- Teradata Vantage
- SQL Server
- e コマース
- マーケティングオートメーション
- 支払い
- プロトコル
- ストリーミング
- データの調査
- データを収集
- オンデマンド取り込み
- ソースレベルでのデータのフィルタリング
- データフローのモニタリング
- アカウントの更新
- データフローの更新
- 失敗したデータフロー実行の再試行
- アカウントの削除
- データフローの削除
- 暗号化されたデータの取り込み
- データフローをドラフトとして保存
- データフローへのアクセスラベルの適用
- ベース接続の作成
- UI チュートリアル
- ソース接続の作成
- アドビアプリケーション
- 広告
- Analytics
- クラウドストレージ
- 同意および環境設定
- CRM
- カスタマーサクセス
- データベース
- Amazon Redshift
- Azure HDInsights 上の Apache Hive
- Azure HDInsights 上の Apache Spark
- Azure Databricks
- Azure Data Explorer
- Azure Synapse Analytics
- Azure Table Storage
- Couchbase
- Google BigQuery
- GreenPlum
- HP Vertica
- IBM DB2
- MariaDB
- Microsoft SQL Server
- MySQL
- Oracle
- Phoenix
- PostgreSQL
- Snowflake
- Snowflake ストリーミング
- Teradata Vantage
- データおよび ID パートナー
- e コマース
- ローカルシステム
- マーケティングオートメーション
- 支払い
- プロトコル
- ストリーミング
- データフローの設定
- UI のテンプレートを使用してソースのデータフローを作成する
- 暗号化されたデータの取り込み
- オンデマンド取り込み
- バッチデータフローのモニタリング
- ストリーミングデータフローのモニタリング
- アカウントの更新
- データフローの更新
- アカウントの削除
- データフローの削除
- ソースアラートの購読
- データフローをドラフトとして保存
- データフローへのアクセスラベルの適用
- ソース接続の作成
- セルフサービスソース(バッチ SDK)
- エラーメッセージ
- フロー実行通知
- IP アドレス許可リスト
- よくある質問
- API リファレンス
- Experience Platform リリースノート