https://kafka.apache.org/downloadsに移動し、最新のリリース版をダウンロードします。 最新のバイナリリリース(この場合はScala 2.13)を選択します。
ミラーサイトに移動します。 Kafkaをダウンロードするには、推奨リンクをクリックします。
デスクトップ上にKafka_AEPという名前のフォルダーを作成し、ダウンロードしたファイルをそのディレクトリに配置します。
ターミナルウィンドウを開くには、フォルダーを右クリックし、「New Terminal(フォルダー)」をクリックします。
ターミナルウィンドウで次のコマンドを実行して、ダウンロードしたファイルを解凍します。
tar -xvf kafka_2.13-2.8.0.tgz
次の内容が表示されます。
そのファイルを解凍すると、次のようなディレクトリが作成されます。
そのディレクトリには、次のサブディレクトリが表示されます。
ターミナルウィンドウに戻ります。 次のコマンドを入力します。
cd kafka_2.13-2.8.0
次に、コマンドbin/kafka-topics.sh
を入力します。
次に、この応答が表示されます。 これは、Kafkaが正しくインストールされ、Javaが正常に動作していることを意味します。 (注意:この機能を使用するには、Java 8 JDKまたはJava 11 JDKがインストールされている必要があります。 コマンドjava -version
を使用すると、インストールしたJavaのバージョンを確認できます)。
Kafkaを始めるには、Kafka ZookeeperとKafkaをこの順序で開始する必要があります。
kafka_2.13-2.8.0フォルダーを右クリックし、「新しいターミナル」をクリックして、ターミナルウィンドウを開きます。
次のコマンドを入力します。
bin/zookeeper-server-start.sh config/zookeeper.properties
次の内容が表示されます。
この演習を行う間は、この窓を開けたままにしてください。
別のターミナルウィンドウを開くには、フォルダーkafka_2.13-2.8.0を右クリックし、フォルダーの「新しいターミナル」をクリックします。
次のコマンドを入力します。
bin/kafka-server-start.sh config/server.properties
次の内容が表示されます。
この演習を行う間は、この窓を開けたままにしてください。
kafka_2.13-2.8.0フォルダーを右クリックし、「新しいターミナル」をクリックして、ターミナルウィンドウを開きます。
このコマンドを入力して、aeptestという名前の新しいKafkaトピックを作成します。 このトピックは、この演習でのテストに使用します。
bin/kafka-topics.sh --zookeeper 127.0.0.1:2181 --topic aeptest --create --partitions 1 --replication-factor 1
同様の確認が表示されます。
このコマンドを入力して、aepという名前の新しいKafkaトピックを作成します。 このトピックは、次の演習で設定するAdobe Experience Platformシンクコネクタで使用します。
bin/kafka-topics.sh --zookeeper 127.0.0.1:2181 --topic aep --create --partitions 1 --replication-factor 1
同様の確認が表示されます。
最初のKafkaトピックを作成したターミナルウィンドウに戻り、次のコマンドを入力します。
bin/kafka-console-producer.sh --broker-list 127.0.0.1:9092 --topic aeptest
そうすれば、これが見える。 新しい行にEnterボタンを押すと、トピックaeptestに新しいメッセージが送信されます。
Hello AEP
と入力し、Enterキーを押します。 これで、最初のイベントがローカルのKafkaインスタンスに、トピックaeptestに送信されました。
Hello AEP again.
と入力し、Enterキーを押します。
AEP Data Collection is the best.
と入力し、Enterキーを押します。
これで、トピックaeptestに3つのイベントが作成されました。 これらのイベントは、そのデータを必要とする可能性のあるアプリケーションで使用できるようになりました。
キーボードで、Control
とC
を同時にクリックして、プロデューサーを閉じます。
イベントの作成に使用したのと同じターミナルウィンドウで、次のコマンドを入力します。
bin/kafka-console-consumer.sh --bootstrap-server 127.0.0.1:9092 --topic aeptest --from-beginning
次に、前のトピックaeptestで作成したすべてのメッセージが消費者に表示されます。 Apache Kafkaの仕組みは次のとおりです。プロデューサーがイベントをパイプラインに作成し、コンシューマーがこれらのイベントを使用します。
キーボードで、Control
とC
を同時にクリックして、プロデューサーを閉じます。
この練習では、すべての基本事項を実行し、ローカルKafkaクラスターを設定し、Kafkaトピックを作成し、イベントを生成して、イベントを使用します。
このモジュールの目的は、実際の組織が既にApache Kafkaクラスターを実装し、KafkaクラスターからAdobe Experience Platformにデータをストリーミングしたい場合に起こることをシミュレートすることです。
このような実装を容易にするために、Kafka Connectを使用して実装できるAdobe Experience Platformシンクコネクタが作成されました。 このAdobe Experience Platform Sink Connectorのドキュメントは、次の場所にあります。https://github.com/adobe/experience-platform-streaming-connect.
次の演習では、そのAdobe Experience Platformシンクコネクタを使用する必要のあるすべてを、独自のローカルKafkaクラスター内から実装します。
ターミナルウィンドウを閉じます。
この練習は終わりました。
次の手順:24.3 Adobe Experience PlatformでのHTTP APIエンドポイントの設定