データ収集プロセスの仕組み

センサーは、従来データ収集に関わってきた人手の大部分を排除し、インターネットチャネルからのデータ取得を自動化します。

多くの場合、Sensorを使用すると、データ管理プロセスを大幅にシンプル化できます。

現在の大規模なインターネット、エクストラネット、イントラネットサイトは、多くの場合、Webサーバーのアレイ上で動作します。 生成されるログとデータは、管理に非常に大きく、煩雑な場合があります。 例えば、サイトで30台のWebサーバーを実行している場合、通常は従業員(またはアウトソーシングサービスプロバイダーの従業員)の1人が30台のサーバーのそれぞれに対して各ログファイルを取り込んで統合し、レポートを実行します。 各WebサーバーにSensorをインストールすると、このプロセス全体が自動化され、コストが削減され、データがリアルタイムで利用できるようになります。

この処理を自動化するために、Sensorは各Webサーバーから直接、Webサイト上のトラフィックに関する生の情報を収集します。 Sensorが取り込む生データはイベントデータと呼ばれ、Webサーバーがログファイルに記録するデータのタイプに似ています。

Sensor内のインストルメンテーションは、このデータを取り込むために、Webサーバーが処理する各HTTP要求に関する情報を記録します。 Sensor 次に、ネットワーク障害から保護する情報をバッファリングし、HTTP/Sを介して、指定したに情報を安 data workbench server 全に送信します。

data workbench serverは、データを受け取った後、ログファイルを高圧縮.vsl形式で処理および保存するので、非常に大量のデータを安価なハードウェアで簡単に管理できます。

Sensorによって.vslファイルで収集されるイベントデータフィールドについて詳しくは、イベントデータレコードフィールドを参照してください。

このページ