七六启网

ClickHouse学习笔记六从一次报警开始调优

admin
ClickHouse学习笔记六从一次报警开始调优-第1张-游戏相关-七六启网

前言:

现时朋友们对“lol体验服转换器报错”可能比较珍视,各位老铁们都想要分析一些“lol体验服转换器报错”的相关知识。那么小编在网上搜集了一些关于“lol体验服转换器报错””的相关资讯,希望各位老铁们能喜欢,我们一起来了解一下吧!
前言

我们正开发一套广告系统,通过收集用户点击广告的行为,做数据分析,以便更加智能给用户推荐感兴趣的广告。广告点击是一个海量数据,我们采用消息队列对数据异步处理,最后存储在ClickHouse中。最近我们的ClickHouse 频繁报警提示,这里总结下优化方法。

■【腾讯云可观测平台告警】

您好!您账号(账号ID: 1000*****,昵称: **@**.com)的腾讯云可观测平台告警已触发

告警内容: CDWCH-CK告警|cpu峰值使用率 > 85%

当前数据: 92.659% (cpu峰值使用率)

告警对象: 集群ID:cdwch-11111|集群名称:***#127.0.0.1

项目|地域: - | 北京

告警策略: clickhouse节点预警

触发时间: 2024-04-23 13:27:00 (UTC+08:00)

您可以登录腾讯云可观测平台控制台查看告警详情,或在腾讯云助手小程序查看告警详情

优化ClickHouse建议

1、在规划分区时,应该合理规划分区个数,并尽可能利用分区。一张表分区数不建议超过 1000 个,可以在查询时有效帮助进行数据过滤,使用得当可以提升数倍查询性能,通常按天分区是比较普遍的做法。分区也不建议过多,因为 ClickHouse 不同分区的数据不会合并,容易导致 part 过多,从而导致查询和重启变得很慢。

2、攒批写入:ClickHouse 必须攒批写入,至少 1000 条/批,建议 5k - 10w 一批写入ClickHouse,每一次写入都会在底层生成 1 个或者多个 part 存储目录,后台任务自动合并小 part 到一个大 part ,如果写入频次过高会出现 part 过多,merge 速度跟不上导致写入失败报错: Too many parts(301). Merges are processing significantly slower than inserts。

下面会从这两方面优化ClickHouse , 一个是修改 Click表的分区方式,另一个是优化Kafka消费。

Partition 优化

click 点击表:按月分区修改为 按天分区

CREATE TABLE launch.click_new(    `id` UInt64,    `app_type` UInt32,    `product_type` UInt32,    `channel_type` String,    `agent_name` String,    `advertiser_id` String,    `aid` String,    `aid_name` String,    `cid` String,    `cid_name` String,    `campaign_id` String,    `campaign_name` String,    `ctype` String,    `csite` String,    `convert_id` String,    `request_id` String,    `sl` String,    `imei` String,    `idfa` String,    `idfa_md5` String,    `android_id` String,    `oaid` String,    `oaid_md5` String,    `os` String,    `mac` String,    `mac1` String,    `ip` String,    `ipv6` String,    `ua` String,    `ts` String,    `callback_param` String,    `callback_url` String,    `model` String,    `caid` String,    `caid_md5` String,    `book_id` UInt64,    `chapter_id` UInt64,    `status` UInt32,    `brand` String,    `os_version` String,    `material_id` String,    `version` UInt32,    `data` String,    `expire` DateTime,    `create_time` DateTime COMMENT '创建时间',    `channel_id` String)ENGINE = ReplicatedReplacingMergeTree()PARTITION BY toYYYYMMDD(create_time)PRIMARY KEY idORDER BY id

system.merges

system.merges 表包含有关 MergeTree 系列表中当前正在处理的 merge 和 part 突变的信息。

SELECTtable,count(*)FROM clusterAllReplicas('default_cluster', system.merges)GROUP BY table
@KafkaListener注解详解

topics:

描述: 指定监听的 Kafka 主题,可以是一个字符串数组。这是最基本的参数,它定义了监听器将从哪个或哪些主题接收消息。

 @KafkaListener(topics = "click_topic")

groupId:

描述: 指定 Kafka 消费者组的 ID。每个消费者都有自己所属的组。一个组中可以有多个消费者。

@KafkaListener(topics = "click_topic", groupId = "click_group")

id:

描述: 每个Listener实例的重要标识。默认是一个自动生成的唯一 ID。如果不指定groupId,那么id将直接作为groupId。在同一应用中,如果有多个监听器,可以使用不同的id来标识不同的监听器容器。

@KafkaListener(id = "myListener", topics = "click_topic", groupId = "click_group")

concurrency:

描述: 指定并发消费者的数量,即监听器容器的线程数。控制监听器的并发性,每个线程会创建一个消费者实例。较大的并发性可以提高消息处理的吞吐量。

@KafkaListener(topics = "click_topic", groupId = "click_group", concurrency = "3")

containerFactory:

描述: 指定用于创建监听器容器的工厂类。可以用于配置监听器容器的属性。通过设置 containerFactory,可以更灵活地配置监听器容器的一些属性,例如消息转换器、错误处理器等。

@KafkaListener(topics = "click_topic", groupId = "click_group", concurrency = "3", containerFactory = "myContainerFactory")

autoStartup:

描述: 指定是否在启动时自动启动监听器容器。默认是 true。如果设置为false,则需要手动调用容器的start() 方法来启动监听器。

@KafkaListener(topics = "click_topic", groupId = "click_group", concurrency = "3", autoStartup = "false")

clientIdPrefix:

描述: 指定 Kafka 消费者的客户端 ID 前缀。可以通过设置clientIdPrefix来自定义消费者的客户端 ID。

 @KafkaListener(topics = "click_topic", clientIdPrefix = "my-client")

containerGroup:

描述: 指定监听器容器所属的组。如果有多个应用使用相同的消费者组,可以通过设置 containerGroup来区分它们。

@KafkaListener(topics = "click_topic", containerGroup = "my-group")

errorHandler:

描述: 指定错误处理器,用于处理监听器方法抛出的异常。定义一个错误处理器,可以在发生异常时进行自定义处理。

 @KafkaListener(topics = "click_topic", errorHandler = "myErrorHandler")

properties:

描述: 指定其他的消费者配置属性,以键值对的形式提供。这种方式允许你通过注解的方式灵活地设置特定的消费者属性,而不必在全局配置文件中进行设置。请确保设置的属性是合法的 Kafka 消费者属性,并符合你的应用需求。

@KafkaListener(topics = "click_topic", groupId = "click_group", concurrency = "3",        properties = {"fetch.max.wait.ms=30000", "fetch.min.bytes=202400", "max.poll.records=500"})

fetch.min.bytes

该参数用来配置Consumer在一次拉取请求(调用poll()方法)中能从Kafka 中拉取的最小数据量,默认值为1(B)。Kafka在收到Consumer的拉取请求时,如果返回给Consumer的数据量小于这个参数所配置的值,那么它就需要进行等待,直到数据量满足这个参数的配置大小。可以适当调大这个参数的值以提高一定的吞吐量,不过也会造成额外的延迟(latency),对于延迟敏感的应用可能就不可取了。

fetch.max.wait.ms

这个参数也和 fetch.min.bytes参数有关,如果Kafka仅仅参考fetch.min.bytes参数的要求,那么有可能会一直阻塞等待而无法发送响应给Consumer,显然这是不合理的。fetch.max.wait.ms参数用于指定Kafka的等待时间,默认值为500 (ms)。如果Kafka中没有足够多的消息而满足不了fetch.min.bytes参数的要求,那么最终会等待500ms。这个参数的设定和Consumer 与Kafka之间的延迟也有关系,如果业务应用对延迟敏感,那么可以适当调小这个参数。

max.poll.records

这个参数用来配置Consumer 在一次拉取请求中拉取的最大消息数,默认值为500(条)。如果消息的大小都比较小,则可以适当调大这个参数值来提升一定的消费速度。

这些参数可以根据实际需求进行组合和配置,以满足特定场景的要求。例如,通过调整 concurrency 可以控制监听器的并发性,通过设置 autoStartup 可以控制监听器容器是否在应用启动时自动启动。其他参数也可以根据需要进行调整。

标签: #lol体验服转换器报错