当前位置: 首页 > news >正文

kafka设置数据压缩的方式及作用

Kafka配置文档

kafka设置数据压缩的方式及作用

Apache Kafka 是一个分布式流处理平台,它被广泛用于构建实时数据管道和流式应用程序。Kafka 提供了多种方式来存储和管理数据,其中包括数据压缩。数据压缩在 Kafka 中主要有以下几个作用和设置方式:

1. 作用

减少存储空间需求‌:压缩可以显著减少存储在磁盘上的数据量,从而节省存储成本。

减少网络传输带宽‌:在网络传输数据时,压缩可以减少数据的体积,降低网络传输的成本和延迟。

提高数据处理的效率‌:压缩后的数据在处理时可以更快地被读取和写入,尤其是在处理大量数据时,可以提升整体性能。

2. 设置方式

在 Kafka 中,可以通过配置compression.type属性来设置生产者和消费者使用的压缩方式。这个属性可以在 broker 级别、topic 级别或者生产者/消费者客户端级别进行配置。

a. 在 Broker 级别配置

在 Kafka 的server.properties文件中,可以设置全局默认的压缩类型:

# [uncompressed, zstd, lz4, snappy, gzip, producer] compression.type=producer

这里producer表示使用生产者设置的压缩类型。如果不设置,默认为producer

如果这在broker直接指定压缩算法(zstd、lz4、snappy、gzip),那么不管生产者是否设置压缩服务端的该broker都会将数据压缩后存储。

说明:Broker指 Kafka 集群中的一个节点(或服务器)

b. 在 Topic 级别配置

在创建 topic 时,可以使用kafka-topics.sh脚本的--config选项来设置特定的压缩类型:

kafka-topics.sh --create --bootstrap-server localhost:9092 --replication-factor 1 --partitions 1 --topic my-topic --config compression.type=gzip

如果这在topic直接指定压缩算法(zstd、lz4、snappy、gzip),那么不管生产者是否设置压缩服务端都会将数据压缩后存储。

说明:Topic级别配置指Kafka集群中的所有节点都采用该配置。

c. 在生产者/消费者客户端配置

在生产者或消费者的配置中,可以直接设置compression.type属性:

Properties props = new Properties(); props.put("bootstrap.servers", "localhost:9092"); props.put("key.serializer", "org.apache.kafka.common.serialization.StringSerializer"); props.put("value.serializer", "org.apache.kafka.common.serialization.StringSerializer"); props.put("compression.type", "gzip"); // 设置压缩类型为 gzip

3. 支持的压缩类型

Kafka 支持多种压缩算法,包括:

  • gzip‌:使用 gzip 算法进行压缩。
  • snappy‌:使用 Snappy 算法进行压缩,通常比 gzip 快,但压缩率略低。
  • lz4‌:使用 LZ4 算法进行压缩,通常提供良好的压缩速度和压缩率。
  • zstd‌:使用 Zstandard (zstd) 算法进行压缩,提供更高的压缩率但可能在某些情况下牺牲速度。

4. 选择合适的压缩方式

选择哪种压缩方式取决于具体的应用场景。例如,如果你对延迟敏感,可能会选择snappylz4;如果对压缩率有较高要求,可能会选择gzipzstd。在实际部署前,建议根据数据特性和性能需求进行测试,以确定最合适的压缩方式。

通过合理配置和使用数据压缩,可以优化 Kafka 的存储效率和网络传输效率,从而提升整体性能和降低成本。

附件一:图表总结

附件二:kafka常用命令

Kafka的常用命令主要涵盖服务管理、Topic管理、消息生产与消费、消费者组管理以及偏移量查询等操作。

服务管理

  1. 启动服务‌:使用kafka-server-start.sh脚本,通常需要指定配置文件。
    • 前台启动:bin/kafka-server-start.sh config/server.properties‌‌
    • 后台启动:bin/kafka-server-start.sh -daemon config/server.properties
    • Kraft模式启动:bin/kafka-server-start.sh config/kraft/server.properties‌‌
  2. 停止服务‌:使用kafka-server-stop.sh脚本。‌‌‌‌

Topic管理

  1. 创建Topic‌:使用kafka-topics.sh脚本,需指定Zookeeper连接、Topic名称、分区数和副本因子。
    • 示例:bin/kafka-topics.sh --create --zookeeper localhost:2181 --topic test --partitions 3 --replication-factor 1‌‌
  2. 查看Topic列表‌:bin/kafka-topics.sh --list --zookeeper localhost:2181‌‌‌‌1
  3. 查看Topic详情‌:bin/kafka-topics.sh --describe --zookeeper localhost:2181 --topic test‌‌‌‌
    • 可使用--unavailable-partitions--under-replicated-partitions参数检查问题分区。‌‌
  4. 修改Topic分区数(仅可增加)‌:bin/kafka-topics.sh --alter --zookeeper localhost:2181 --topic test --partitions 5‌‌‌‌
  5. 删除Topic‌:bin/kafka-topics.sh --delete --zookeeper localhost:2181 --topic test‌‌‌‌

生产与消费

  1. 发送消息(生产者)‌:使用kafka-console-producer.sh脚本,需指定Broker列表和Topic名称。
    • 示例:bin/kafka-console-producer.sh --broker-list localhost:9092 --topic test‌‌‌‌
  2. 消费消息(消费者)‌:使用kafka-console-consumer.sh脚本,需指定Bootstrap Server和Topic名称。
    • 从头开始消费:bin/kafka-console-consumer.sh --bootstrap-server localhost:9092 --topic test --from-beginning‌‌‌‌
    • 从最新位置消费:不加--from-beginning参数。‌‌
    • 可指定消费者组、分区、偏移量或最大消息数等参数进行更精细控制。‌‌
http://www.jsqmd.com/news/403412/

相关文章:

  • 【GitHub项目推荐--Shadcn/ui:重新定义现代前端开发的组件库哲学】⭐⭐⭐⭐⭐
  • 验证kafka队列中的数据是否是被压缩后的数据
  • 毕业论文写作必备,10个AI网站助你高效完成。
  • 9款AI论文改写平台,提升学术表达精准度
  • 10大AI网站助力论文写作,告别拖延轻松定稿。
  • 10个AI辅助写作网站,论文质量快速优化
  • 上榜的9个AI论文工具,写作效率翻倍提升
  • AI辅助论文修改,11款工具让写作事半功倍。
  • 9个热门AI论文生成工具,学术创作更轻松
  • 抖音评论智能采集工具|免登录|获客
  • JAVA WEB学习4
  • 借助AI工具,9个网站让毕业论文更出色
  • jEasyUI 创建复杂布局
  • Python 环境搭建
  • 精选9款论文AI工具,优化学术写作效率
  • 这些AI写作网站上榜,论文质量一键升级
  • Vue3 目录结构
  • 10个高效AI论文写作平台,助力学术质量飞跃
  • 9个顶级AI论文助手推荐,轻松提升研究水平
  • AI应用架构师独家:价值投资AI策略中的因子选择技巧,提升胜率30%(附案例)
  • Mac + nvm:程序员必须掌握的 Node 版本管理神技
  • 上海之江生物科技股份有限公司前端开发工程师职位深度解析
  • Kotlin 数据类与密封类
  • 2.22学习
  • Julia 流程控制
  • 大数据工程师必知:数据生命周期的5大核心环节
  • Bootstrap4 表单
  • 提示工程架构师必知:AI提示系统伦理审查与社会责任的关系
  • Flink异步IO:大数据处理的外部系统集成
  • 大数据时代:为什么描述性分析是数据科学的第一步?