データ収集プロセスの仕組み

Sensorは、従来データ収集に関与してきた人手の大部分を排除することで、インターネットチャネルからのデータ取得を自動化します。

多くの場合、を使用するとデータ管理プロセス Sensor を大幅に簡略化できます。

今日の大規模なインターネット、エクストラネット、イントラネットのサイトは、多くの場合、一連のWebサーバー上で動作します。 生成されるログとデータは、管理に非常に大きく、扱いにくい場合があります。 例えば、サイトで30台のWebサーバーを実行している場合、通常は従業員(またはアウトソーシングのサービスプロバイダーの従業員)が30台のサーバーそれぞれのログファイルを取り込んで統合し、レポートを実行します。 各Webサーバー Sensor にインストールすると、このプロセス全体が自動化され、コストが削減され、データをリアルタイムで利用できるようになります。

このプロセスを自動化するには、各WebサーバーからWebサイト上のトラフィックに関する生の情報を直接収集します。 Sensor 取り込まれる生データはイベントデータと呼ば Sensor れ、Webサーバーがログファイルに記録するデータの種類と似ています。

このデータを取り込むために、Webサーバーが処理する各HTTP要求に関する情報がinstrumentationに Sensor 記録されます。 Sensor 次に、ネットワーク障害から保護する情報をバッファリングし、HTTP/S経由で指定した場所に情報を安全に送信 data workbench server します。

がデータを data workbench server.vsl 受け取ると、ログファイルを高圧縮形式のファイルで処理および保存するので、非常に大量のデータを安価なハードウェアで簡単に管理できます。

ファイルで収集されるイベントデータフィールドにつ Sensor いて詳しくは、「 .vsl イベントデータレコードフィールド 」を参照してください。

このページ