前言:
现时朋友们对“lol体验服转换器报错”可能比较珍视,各位老铁们都想要分析一些“lol体验服转换器报错”的相关知识。那么小编在网上搜集了一些关于“lol体验服转换器报错””的相关资讯,希望各位老铁们能喜欢,我们一起来了解一下吧!我们正开发一套广告系统,通过收集用户点击广告的行为,做数据分析,以便更加智能给用户推荐感兴趣的广告。广告点击是一个海量数据,我们采用消息队列对数据异步处理,最后存储在ClickHouse中。最近我们的ClickHouse 频繁报警提示,这里总结下优化方法。
■【腾讯云可观测平台告警】
您好!您账号(账号ID: 1000*****,昵称: **@**.com)的腾讯云可观测平台告警已触发
告警内容: CDWCH-CK告警|cpu峰值使用率 > 85%
当前数据: 92.659% (cpu峰值使用率)
告警对象: 集群ID:cdwch-11111|集群名称:***#127.0.0.1
项目|地域: - | 北京
告警策略: clickhouse节点预警
触发时间: 2024-04-23 13:27:00 (UTC+08:00)
您可以登录腾讯云可观测平台控制台查看告警详情,或在腾讯云助手小程序查看告警详情
优化ClickHouse建议
1、在规划分区时,应该合理规划分区个数,并尽可能利用分区。一张表分区数不建议超过 1000 个,可以在查询时有效帮助进行数据过滤,使用得当可以提升数倍查询性能,通常按天分区是比较普遍的做法。分区也不建议过多,因为 ClickHouse 不同分区的数据不会合并,容易导致 part 过多,从而导致查询和重启变得很慢。
2、攒批写入:ClickHouse 必须攒批写入,至少 1000 条/批,建议 5k - 10w 一批写入ClickHouse,每一次写入都会在底层生成 1 个或者多个 part 存储目录,后台任务自动合并小 part 到一个大 part ,如果写入频次过高会出现 part 过多,merge 速度跟不上导致写入失败报错: Too many parts(301). Merges are processing significantly slower than inserts。
下面会从这两方面优化ClickHouse , 一个是修改 Click表的分区方式,另一个是优化Kafka消费。
Partition 优化click 点击表:按月分区修改为 按天分区
CREATE TABLE launch.click_new( `id` UInt64, `app_type` UInt32, `product_type` UInt32, `channel_type` String, `agent_name` String, `advertiser_id` String, `aid` String, `aid_name` String, `cid` String, `cid_name` String, `campaign_id` String, `campaign_name` String, `ctype` String, `csite` String, `convert_id` String, `request_id` String, `sl` String, `imei` String, `idfa` String, `idfa_md5` String, `android_id` String, `oaid` String, `oaid_md5` String, `os` String, `mac` String, `mac1` String, `ip` String, `ipv6` String, `ua` String, `ts` String, `callback_param` String, `callback_url` String, `model` String, `caid` String, `caid_md5` String, `book_id` UInt64, `chapter_id` UInt64, `status` UInt32, `brand` String, `os_version` String, `material_id` String, `version` UInt32, `data` String, `expire` DateTime, `create_time` DateTime COMMENT '创建时间', `channel_id` String)ENGINE = ReplicatedReplacingMergeTree()PARTITION BY toYYYYMMDD(create_time)PRIMARY KEY idORDER BY id
system.merges
system.merges 表包含有关 MergeTree 系列表中当前正在处理的 merge 和 part 突变的信息。
SELECTtable,count(*)FROM clusterAllReplicas('default_cluster', system.merges)GROUP BY table@KafkaListener注解详解
topics:
描述: 指定监听的 Kafka 主题,可以是一个字符串数组。这是最基本的参数,它定义了监听器将从哪个或哪些主题接收消息。
@KafkaListener(topics = "click_topic")
groupId:
描述: 指定 Kafka 消费者组的 ID。每个消费者都有自己所属的组。一个组中可以有多个消费者。
@KafkaListener(topics = "click_topic", groupId = "click_group")
id:
描述: 每个Listener实例的重要标识。默认是一个自动生成的唯一 ID。如果不指定groupId,那么id将直接作为groupId。在同一应用中,如果有多个监听器,可以使用不同的id来标识不同的监听器容器。
@KafkaListener(id = "myListener", topics = "click_topic", groupId = "click_group")
concurrency:
描述: 指定并发消费者的数量,即监听器容器的线程数。控制监听器的并发性,每个线程会创建一个消费者实例。较大的并发性可以提高消息处理的吞吐量。
@KafkaListener(topics = "click_topic", groupId = "click_group", concurrency = "3")
containerFactory:
描述: 指定用于创建监听器容器的工厂类。可以用于配置监听器容器的属性。通过设置 containerFactory,可以更灵活地配置监听器容器的一些属性,例如消息转换器、错误处理器等。
@KafkaListener(topics = "click_topic", groupId = "click_group", concurrency = "3", containerFactory = "myContainerFactory")
autoStartup:
描述: 指定是否在启动时自动启动监听器容器。默认是 true。如果设置为false,则需要手动调用容器的start() 方法来启动监听器。
@KafkaListener(topics = "click_topic", groupId = "click_group", concurrency = "3", autoStartup = "false")
clientIdPrefix:
描述: 指定 Kafka 消费者的客户端 ID 前缀。可以通过设置clientIdPrefix来自定义消费者的客户端 ID。
@KafkaListener(topics = "click_topic", clientIdPrefix = "my-client")
containerGroup:
描述: 指定监听器容器所属的组。如果有多个应用使用相同的消费者组,可以通过设置 containerGroup来区分它们。
@KafkaListener(topics = "click_topic", containerGroup = "my-group")
errorHandler:
描述: 指定错误处理器,用于处理监听器方法抛出的异常。定义一个错误处理器,可以在发生异常时进行自定义处理。
@KafkaListener(topics = "click_topic", errorHandler = "myErrorHandler")
properties:
描述: 指定其他的消费者配置属性,以键值对的形式提供。这种方式允许你通过注解的方式灵活地设置特定的消费者属性,而不必在全局配置文件中进行设置。请确保设置的属性是合法的 Kafka 消费者属性,并符合你的应用需求。
@KafkaListener(topics = "click_topic", groupId = "click_group", concurrency = "3", properties = {"fetch.max.wait.ms=30000", "fetch.min.bytes=202400", "max.poll.records=500"})
fetch.min.bytes
该参数用来配置Consumer在一次拉取请求(调用poll()方法)中能从Kafka 中拉取的最小数据量,默认值为1(B)。Kafka在收到Consumer的拉取请求时,如果返回给Consumer的数据量小于这个参数所配置的值,那么它就需要进行等待,直到数据量满足这个参数的配置大小。可以适当调大这个参数的值以提高一定的吞吐量,不过也会造成额外的延迟(latency),对于延迟敏感的应用可能就不可取了。
fetch.max.wait.ms
这个参数也和 fetch.min.bytes参数有关,如果Kafka仅仅参考fetch.min.bytes参数的要求,那么有可能会一直阻塞等待而无法发送响应给Consumer,显然这是不合理的。fetch.max.wait.ms参数用于指定Kafka的等待时间,默认值为500 (ms)。如果Kafka中没有足够多的消息而满足不了fetch.min.bytes参数的要求,那么最终会等待500ms。这个参数的设定和Consumer 与Kafka之间的延迟也有关系,如果业务应用对延迟敏感,那么可以适当调小这个参数。
max.poll.records
这个参数用来配置Consumer 在一次拉取请求中拉取的最大消息数,默认值为500(条)。如果消息的大小都比较小,则可以适当调大这个参数值来提升一定的消费速度。
这些参数可以根据实际需求进行组合和配置,以满足特定场景的要求。例如,通过调整 concurrency 可以控制监听器的并发性,通过设置 autoStartup 可以控制监听器容器是否在应用启动时自动启动。其他参数也可以根据需要进行调整。
标签: #lol体验服转换器报错