How Apache Kafka Works

How Apache Kafka Works

Watch Now

Pick up best practices for developing applications that use Apache Kafka, beginning with a high level code overview for a basic producer and consumer. From there we’ll cover strategies for building powerful stream processing applications, including high availability through replication, data retention policies, producer design and producer guarantees.

We’ll delve into the details of delivery guarantees, including exactly-once semantics, partition strategies and consumer group rebalances. The talk will finish with a discussion of compacted topics, troubleshooting strategies and a security overview.

This session is part 3 of 4 in our Fundamentals for Apache Kafka series.

サイトのご利用状況を把握しユーザーエクスペリエンスの改善へとつなげるため、当サイトでは Cookie (クッキー) を使用しています。Cookie についての詳細を確認するには、また Cookie 設定の変更をご希望の場合は、こちらをクリックしてください。閲覧を続行することにより、当社の Cookie 使用に同意されたものとみなされます。