在Apache Kafka中,您可以使用Kafka Streams API进行数据聚合
<dependency>
<groupId>org.apache.kafka</groupId>
<artifactId>kafka-streams</artifactId>
<version>2.8.0</version>
</dependency>
import org.apache.kafka.common.serialization.Serdes;
import org.apache.kafka.streams.KafkaStreams;
import org.apache.kafka.streams.StreamsBuilder;
import org.apache.kafka.streams.kstream.KStream;
import org.apache.kafka.streams.kstream.KTable;
import org.apache.kafka.streams.kstream.Materialized;
import org.apache.kafka.streams.kstream.Produced;
import java.util.Properties;
public class KafkaStreamsAggregation {
public static void main(String[] args) {
Properties props = new Properties();
props.put(StreamsConfig.APPLICATION_ID_CONFIG, "kafka-streams-aggregation");
props.put(StreamsConfig.BOOTSTRAP_SERVERS_CONFIG, "localhost:9092");
props.put(StreamsConfig.DEFAULT_KEY_SERDE_CLASS_CONFIG, Serdes.String().getClass());
props.put(StreamsConfig.DEFAULT_VALUE_SERDE_CLASS_CONFIG, Serdes.String().getClass());
StreamsBuilder builder = new StreamsBuilder();
KStream<String, String> inputStream = builder.stream("input-topic");
// 数据聚合
KTable<String, Integer> aggregatedTable = inputStream
.groupByKey()
.reduce((value1, value2) -> value1 + value2, Materialized.as("aggregated-store"));
// 将聚合结果写回到另一个Kafka主题
aggregatedTable.toStream().to("output-topic", Produced.with(Serdes.String(), Serdes.Integer()));
KafkaStreams streams = new KafkaStreams(builder.build(), props);
streams.start();
// 添加关闭钩子
Runtime.getRuntime().addShutdownHook(new Thread(streams::close));
}
}
在这个示例中,我们从一个名为"input-topic"的Kafka主题读取数据,然后使用groupByKey()
方法对数据进行分组,接着使用reduce()
方法对每个分组进行聚合。最后,我们将聚合结果写回到名为"output-topic"的Kafka主题。
请注意,这个示例使用了字符串类型的数据。您可以根据需要修改代码以处理其他类型的数据。