Flink调优总结
2023-07-01 15:42:58 40 举报
AI智能生成
Flink调优主要包括内存管理、并行度设置、任务链优化等方面。首先,合理配置内存资源,避免内存溢出或浪费;其次,根据数据量和计算复杂度调整并行度,提高任务执行效率;再者,优化任务链,减少中间结果的传输和存储开销。此外,还需关注网络拓扑结构、作业调度策略等细节,以提高整体性能。总之,Flink调优需要综合考虑多个方面,通过不断尝试和调整,找到最佳配置,实现高效稳定的数据处理。
作者其他创作
大纲/内容
DataStream的DataGenerator
public class DataGenSQLTest { public static void main(String[] args) { StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment(); env.setParallelism(1); StreamTableEnvironment tableEnv = StreamTableEnvironment.create(env); String orderSql=\"CREATE TABLE order_info (\\" + \
SQL的DataGenerator
使用DataGen造数据
算子 UID 是根据 JobGraph 自动生成的,JobGraph 的更改可能会导致UUID 改变。手动指定算子 UUID ,可以让 Flink 有效地将算子的状态从 savepoint 映射到作业修改后(拓扑图可能也有改变)的正确的算子上
.uid(\"uv-reduce\").name(\"uv-reduce\")
算子指定UUID
metrics.latency.interval: 30000 #默认 0,表示禁用,单位毫秒
metrics.latency.granularity: operator #默认 operator
single:每个算子单独统计延迟
operator(默认值):每个下游算子都统计自己与 Source 算子之间的延迟
subtask:每个下游算子的 sub-task 都统计自己与 Source 算子的 sub-task 之间的延迟
监控的粒度
链路延迟测量
当调用了 enableObjectReuse 方法后,Flink 会把中间深拷贝的步骤都省略掉,SourceFunction 产生的数据直接作为 MapFunction 的输入,可以减少 gc 压力。但需要特别注意的是,这个方法不能随便调用,必须要确保下游 Function 只有一种,或者下游的Function 均不会改变对象内部的值。否则可能会有线程安全的问题。
开启对象重用
解决思路:滚动窗口+在线存储+读时聚合
细粒度滑动窗口优化
五、Job优化
FlinkSQL 的 regular join(inner、left、right),左右表的数据都会一直保存在状态里,不会清理!要么设置 TTL,要么使用 FlinkSQL 的 interval join
使用 Top-N 语法进行去重,重复数据的出现一般都位于特定区间内(例如一小时或一天内),过了这段时间之后,对应的状态就不再需要了
设置空闲状态保留时间
MiniBatch 是微批处理,原理是缓存一定的数据后再触发处理,以减少对 State 的访问,从而提升吞吐并减少数据的输出量。MiniBatch 主要依靠在每个 Task 上注册的 Timer 线程来触发微批,需要消耗一定的线程调度性能
// 默认关闭,开启 miniBatchconfiguration.setString(\"table.exec.mini-batch.enabled\
微批处理通过增加延迟换取高吞吐,如果有超低延迟的要求,不建议开启微批处理。通常对于聚合的场景,微批处理可以显著的提升系统性能,建议开启
适用场景
开启MiniBatch
LocalGlobal 优 化 将 原 先 的 Aggregate 分 成 Local+Global 两 阶 段 聚 合 , 即MapReduce 模型中的 Combine+Reduce 处理模式。第一阶段在上游节点本地攒一批数据进行聚合(localAgg),并输出这次微批的增量值(Accumulator)。第二阶段再将收到的 Accumulator 合并(Merge),得到最终的结果(GlobalAgg)
原理概述
1)LocalGlobal 优化需要先开启 MiniBatch,依赖于 MiniBatch 的参数
2)table.optimizer.agg-phase-strategy: 聚合策略。默认 AUTO,支持参数 AUTO、TWO_PHASE(使用 LocalGlobal 两阶段聚合)、ONE_PHASE(仅使用 Global 一阶段聚合)。
LocalGlobal 开启方式
LocalGlobal 优化对普通聚合(例如 SUM、COUNT、MAX、MIN 和 AVG)有较好的效果
开启LocalGlobal
从 Flink1.9.0 版 本 开 始 , 提 供 了 COUNT DISTINCT 自 动 打 散 功 能 , 通 过HASH_CODE(distinct_key) % BUCKET_NUM 打散
table.optimizer.distinct-agg.split.enabled: true,默认 false。table.optimizer.distinct-agg.split.bucket-num: Split Distinct 优化在第一层聚合中,被打散的 bucket 数目。默认 1024。
Split Distinct 开启方式
(1)目前不能在包含 UDAF 的 Flink SQL 中使用 Split Distinct 优化方法。(2)拆分出来的两个 GROUP 聚合还可参与 LocalGlobal 优化。(3)该功能在 Flink1.9.0 版本及以上版本才支持。
注意事项
开启Split Distinct
提交案例:多维Distinct
提交案例:使用Filter
Flink SQL 优化器可以识别同一唯一键上的不同 FILTER 参数。如,在上面的示例中,三个 COUNT DISTINCT 都作在 b 列上。此时,经过优化器识别后,Flink 可以只使用一个共享状态实例,而不是三个状态实例,可减少状态的大小和对状态的访问
多维DISTINCT使用Filter
六、FlinkSQL调优
看到从 TaskExecutorProcessUtils 或 JobManagerProcessUtils 抛出的IllegalConfigurationException,通常表明存在无效的配置值(例如负内存大小、大于 1 的分数等)或配置冲突。请重新配置内存参数
非法配置异常
报 OutOfMemoryError: Java heap space 异常,通常表示 JVM Heap 太小
可以尝试通过增加总内存来增加 JVM 堆大小。也可以直接为 TaskManager 增加任务堆内存或为 JobManager 增加 JVM 堆内存
Java 堆空间异常
直接缓冲存储器异常
报 OutOfMemoryError: Metaspace 异常,通常表示 JVM 元空间限制配置得太小
元空间异常
报 IOException: Insufficient number of network buffers 异常,这仅与TaskManager 相关。通常表示配置的网络内存大小不够大。您可以尝试增加网络内存
网络缓冲区数量不足
如果 Flink 容器尝试分配超出其请求大小(Yarn 或 Kubernetes)的内存,这通常表明 Flink 没有预留足够的本机内存
如果在 JobManager 进程中遇到这个问题,还可以通过设置排除可能的 JVM Direct Memory 泄漏的选项来开启 JVM Direct Memory 的限制 jobmanager.memory.enable-jvm-direct-memory-limit: true
如果想手动多分一部分内存给 RocksDB 来防止超用,预防在云原生的环境因 OOM 被 K8S kill,可将 JVM OverHead 内存调大
超出容器内存异常
Checkpoint Decline
如果 Checkpoint 做的非常慢,超过了 timeout 还没有完成,则整个 Checkpoint 也会失败
Checkpoint Expire
Checkpoint 失败
Source Trigger Checkpoint 慢
使用全量 Checkpoint
作业存在反压或者数据倾斜
Barrier 对齐慢
主线程太忙,导致没机会做 snapshot
同步阶段做的慢
异步阶段做的慢
Checkpoint 慢
Kafka动态发现分区
如果数据源中的某一个分区/分片在一段时间内未发送事件数据,则意味着WatermarkGenerator 也不会获得任何新数据去生成 watermark。我们称这类数据源为空闲输入或空闲源。在这种情况下,当某些其他分区仍然发送事件数据的时候就会出现问题。比如 Kafka 的 Topic 中,由于某些原因,造成个别 Partition 一直没有新的数据。由于下游算子 watermark 的计算方式是取所有不同的上游并行数据源 watermark 的最小值,则其 watermark 将不会发生变化,导致窗口、定时器等不会被触发
可以使用 WatermarkStrategy 来检测空闲输入并将其标记为空闲状态.withIdleness(Duration.ofMinutes(5)
Watermark不更新
打包插件建议使用 maven-shade-plugin。
依赖冲突
超出文件描述符限制
脏数据导致数据转发失败
通讯超时
https://developer.aliyun.com/article/719703
Flink on Yarn其他常见错误
七、常见故障排除
用于 RocksDB State Backend 的本地内存和批的排序、哈希表、缓存中间结果
taskmanager.memory.managed.fraction,默认 0.4 taskmanager.memory.managed.size,默认 none如果 size 没指定,则等于 Flink 内存*fraction
托管内存(Managed Memory)
网络数据交换所使用的堆外内存大小,如网络数据交换缓冲区
taskmanager.memory.network.fraction,默认 0.1 taskmanager.memory.network.min,默认 64mb taskmanager.memory.network.max,默认 1gbFlink 内存*fraction,如果小于配置的 min(或大于配置的 max)大小,则使用 min/max大小
网络内存(Network)
taskmanager.memory.task.heap.size,默认 none,由 Flink 内存扣除掉其他部分的内存得到。
Task Heap(堆内)
taskmanager.memory.task.off-heap.size,默认 0,表示不使用堆外内存
Task Off-Heap(堆外)
Task 内存
Flink 框架,即 TaskManager 本身所占用的内存,不计入 Slot 的资源中
taskmanager.memory.framework.heap.size,默认 128MB
Framework Heap(堆内)
taskmanager.memory.framework.off-heap.size,默认 128MB
Framework Off-Heap(堆外)
框架内存
JVM 元空间
taskmanager.memory.jvm-metaspace.size,默认 256mb
JVM metaspace
JVM 执行时自身所需要的内容,包括线程堆栈、IO、编译缓存等所使用的内存
taskmanager.memory.jvm-overhead.fraction,默认 0.1taskmanager.memory.jvm-overhead.min,默认 192mbtaskmanager.memory.jvm-overhead.max,默认 1gb总进程内存*fraction,如果小于配置的 min(或大于配置的 max)大小,则使用 min/max大小
JVM over-head
JVM 特定内存
内存组成架构
案例分析
TaskManager内存模型
bin/flink run \\-t yarn-per-job \\-d \\-p 5 \\ 指定并行度-Dyarn.application.queue=test \\ 指定 yarn 队列-Djobmanager.memory.process.size=2048mb \\ JM2~4G 足够-Dtaskmanager.memory.process.size=4096mb \\ 单个 TM2~8G 足够-Dtaskmanager.numberOfTaskSlots=2 \\ 与容器核数 1core:1slot 或 2core:1slot-c com.flink.tuning.UvDemo \\/opt/module/flink-1.13.1/myjar/flink-tuning-1.0-SNAPSHOT.jar
Flink 是实时流处理,关键在于资源情况能不能抗住高峰时期每秒的数据量,通常用QPS/TPS 来描述数据情况
生产资源配置示例
内存设置
Yarn 的容量调度器默认情况下是使用“DefaultResourceCalculator”分配策略,只根据内存调度资源,所以在 Yarn 的资源管理页面上看到每个容器的 vcore 个数还是 1
使用DefaultResourceCalculator 策略
bin/flink run \\-t yarn-per-job \\-d \\-p 5 \\-Drest.flamegraph.enabled=true \\-Dyarn.application.queue=test \\-Djobmanager.memory.process.size=1024mb \\-Dtaskmanager.memory.process.size=4096mb \\-Dtaskmanager.numberOfTaskSlots=2 \\-c com.flink.tuning.UvDemo \\/opt/module/flink-1.13.1/myjar/flink-tuning-1.0-SNAPSHOT.jar
容器的 vcore 数:JobManager1 个,占用 1 个容器,vcore=1TaskManager3 个,占用 3 个容器,每个容器 vcore=2,总 vcore=2*3=6,因为默认单个容器的 vcore 数=单 TM 的 slot 数
使用DominantResourceCalculator策略
bin/flink run \\-t yarn-per-job \\-d \\-p 5 \\-Drest.flamegraph.enabled=true \\-Dyarn.application.queue=test \\-Dyarn.containers.vcores=3 \\-Djobmanager.memory.process.size=1024mb \\-Dtaskmanager.memory.process.size=4096mb \\-Dtaskmanager.numberOfTaskSlots=2 \\-c com.flink.tuning.UvDemo \\/opt/module/flink-1.13.1/myjar/flink-tuning-1.0-SNAPSHOT.jar
JobManager1 个,占用 1 个容器,vcore=1TaskManager3 个,占用 3 个容器,每个容器 vcore =3,总 vcore=3*3=9
使用DominantResourceCalculator策略并指定容器vcore数
合理利用cpu资源
开发完成后,先进行压测。任务并行度给 10 以下,测试单个并行度的处理上限。然后总 QPS/单并行度的处理能力 = 并行度
不能只从 QPS 去得出并行度,因为有些字段少、逻辑简单的任务,单并行度一秒处理几万条数据。而有些数据字段多,处理逻辑复杂,单并行度一秒只能处理 1000 条数据。最好根据高峰期的 QPS 压测,并行度*1.2 倍,富余一些资源
全局并行度计算
数据源端是 Kafka,Source 的并行度设置为 Kafka 对应 Topic 的分区数。如果已经等于 Kafka 的分区数,消费速度仍跟不上数据生产速度,考虑下 Kafka 要扩大分区,同时调大并行度等于分区数。
Source 端并行度的配置
般不会做太重的操作,都是比如 map、filter、flatmap 等处理较快的算子,并行度可以和 source 保持一致
Keyby 之前的算子
如果并发较大,建议设置并行度为 2 的整数次幂,例如:128、256、512
小并发任务的并行度不一定需要设置成 2 的整数次幂;
大并发任务如果没有 KeyBy,并行度也无需设置为 2 的整数次幂;
Keyby 之后的算子
Transform端并行度的配置
Sink 端是数据流向下游的地方,可以根据 Sink 端的数据量及下游的服务抗压能力进行评估。如果 Sink 端是 Kafka,可以设为 Kafka 对应 Topic 的分区数。
另外 Sink 端要与下游的服务进行交互,并行度还得根据下游的服务抗压能力来设置
Sink 端并行度的配置
并行度设置
一、资源配置调优
State 访问的性能监控会产生一定的性能影响,所以,默认每 100 次做一次取样(sample),对不同的 State Backend 性能损失影响不同:对于 RocksDB State Backend,性能损失大概在 1% 左右对于 Heap State Backend,性能损失最多可达 10%
state.backend.latency-track.keyed-state-enabled:true #启用访问状态的性能监控state.backend.latency-track.sample-interval: 100 #采样间隔state.backend.latency-track.history-size: 128 #保留的采样数据个数,越大越精确state.backend.latency-track.state-name-as-variable: true #将状态名作为变量
开启State访问性能监控
RocksDB 是目前唯一可用于支持有状态流处理应用程序增量检查点的状态后端
state.backend.incremental: true #默认 false,改为 true。或代码中指定new EmbeddedRocksDBStateBackend(true)
开启增量检查点
当 Flink 任务失败时,可以基于本地的状态信息进行恢复任务,可能不需要从 hdfs 拉取数据。本地恢复目前仅涵盖键控类型的状态后端(RocksDB)
state.backend.local-recovery: true
开启本地恢复
注意:不要配置单块磁盘的多个目录,务必将目录配置到多块不同的磁盘上,让多块磁盘来分担压力
设置多目录
开启增量检查点和本地恢复
当 前 支 持 的 预 定 义 选 项 有 DEFAULT 、 SPINNING_DISK_OPTIMIZED 、SPINNING_DISK_OPTIMIZED_HIGH_MEM 或 FLASH_SSD_OPTIMIZED
state.backend.rocksdb.predefined-options: SPINNING_DISK_OPTIMIZED_HIGH_MEM #设置为机械硬盘+内存模式
调整预定义选项
整个 RocksDB 共享一个 block cache,读数据时内存的 cache 大小,该参数越大读数据时缓存命中率越高,默认大小为 8 MB,建议设置到 64 ~ 256 MB。
state.backend.rocksdb.block.cache-size: 64m #默认 8m
增大block缓存
RocksDB 中,每个 State 使用一个 Column Family,每个 Column Family 使用独占的 write buffer,默认 64MB,建议调大。调整这个参数通常要适当增加 L1 层的大小阈值 max-size-level-base,默认 256m该值太小会造成能存放的 SST 文件过少,层级变多造成查找困难,太大会造成文件过多,合并困难。建议设为 target_file_size_base(默认 64MB)的倍数,且不能太小,例如 5~10倍,即 320~640MB。
state.backend.rocksdb.writebuffer.size: 128mstate.backend.rocksdb.compaction.level.max-size-level-base: 320m
增大write buffer和 level 阈值大小
每个 Column Family 对应的 writebuffer 最大数量,这实际上是内存中“只读内存表“的最大数量,默认值是 2。对于机械磁盘来说,如果内存足够大,可以调大到 5 左右
state.backend.rocksdb.writebuffer.count: 5
增大write buffer数量
用于后台 flush 和合并 sst 文件的线程数,默认为 1,建议调大,机械硬盘用户可以改为 4 等更大的值
state.backend.rocksdb.thread.num: 4
增大线程数
将数据从 writebuffer 中 flush 到磁盘时,需要合并的 writebuffer 最小数量,默认值为 1,可以调成 3
state.backend.rocksdb.writebuffer.number-to-merge: 3
增大 writebuffer 最小合并数
增大后台线程数和write buffer合并数
简单来说就是对 RocksDB 的 partitioned Index 做了多级索引
state.backend.rocksdb.memory.partitioned-index-filters:true #默认 false
开启分区索引功能
bin/flink run \\-t yarn-per-job \\-d \\-p 5 \\-Drest.flamegraph.enabled=true \\-Dyarn.application.queue=test \\-Djobmanager.memory.process.size=1024mb \\-Dtaskmanager.memory.process.size=4096mb \\-Dtaskmanager.numberOfTaskSlots=2 \\-Dstate.backend.incremental=true \\-Dstate.backend.local-recovery=true \\-Dstate.backend.rocksdb.predefined-options=SPINNING_DISK_OPTIMIZED_HIGH_MEM \\-Dstate.backend.rocksdb.block.cache-size=64m \\-Dstate.backend.rocksdb.writebuffer.size=128m \\-Dstate.backend.rocksdb.compaction.level.max-size-level-base=320m \\-Dstate.backend.rocksdb.writebuffer.count=5 \\-Dstate.backend.rocksdb.thread.num=4 \\-Dstate.backend.rocksdb.writebuffer.number-to-merge=3 \\-Dstate.backend.rocksdb.memory.partitioned-index-filters=true \\-Dstate.backend.latency-track.keyed-state-enabled=true \\-c com.flink.tuning.RocksdbTuning \\/opt/module/flink-1.13.1/myjar/flink-tuning-1.0-SNAPSHOT.jar
参数设定案例
RocksDB大状态调优
一般需求,我们的 Checkpoint 时间间隔可以设置为font color=\"#e74f4c\
Checkpoint设置
二、状态及Checkpoint调优
简单来说,Flink 拓扑中每个节点(Task)间的数据都以阻塞队列的方式传输,下游来不及消费导致队列被占满后,上游的生产也会被阻塞,最终导致数据源的摄入被阻塞
反压的理解
barrier 不会越过普通数据,数据处理被阻塞也会导致checkpoint barrier 流经整个数据管道的时长变长,导致 checkpoint 总体时间(End to End Duration)变长
影响 checkpoint 时长
barrier 对齐时,接受到较快的输入管道的 barrier 后,它后面数据会被缓存起来但不处理,直到较慢的输入管道的 barrier 也到达,这些被缓存的数据会被放到 state 里面,导致 checkpoint 变大
影响 state 大小
checkpoint 时间变长有可能导致 checkpoint 超时失败,而 state 大小同样可能拖慢 checkpoint 甚至导致 OOM (使用 Heap-based StateBackend)或者物理内存使用超出容器资源(使用 RocksDBStateBackend)的稳定性问题
危害
反压的危害
概述
Flink 1.13 优化了反压检测的逻辑(使用基于任务 Mailbox 计时,而不在再于堆栈采样),并且重新实现了作业图的 UI 展示:Flink 现在在 UI 上通过颜色和数值来展示繁忙和反压的程度
利用 Flink Web UI 定位
outPoolUsage 发送端 Buffer 的使用率
inPoolUsage 接收端 Buffer 的使用率
floatingBuffersUsage(1.9 以上) 接收端 Floating Buffer 的使用率
exclusiveBuffersUsage(1.9 以上) 接收端 Exclusive Buffer 的使用率
其中 inPoolUsage = floatingBuffersUsage + exclusiveBuffersUsage
常用的几个 Metrics
分析反压的大致思路是:如果一个 Subtask 的发送端 Buffer 占用率很高,则表明它被下游反压限速了;如果一个 Subtask 的接受端 Buffer 占用很高,则表明它将反压传导至上游
根据指标分析反压
Flink 1.9及以上版本,还可以根据 floatingBuffersUsage/exclusiveBuffersUsage 以及其上游 Task 的 outPoolUsage 来进行进一步的分析一个 Subtask 和其上游Subtask 的数据传输。在流量较大时,Channel 的 Exclusive Buffer 可能会被写满,此时 Flink 会向 Buffer Pool 申请剩余的 Floating Buffer。这些 Floating Buffer 属于备用 Buffer。
可以进一步分析数据传输
利用Metrics定位
(1)该节点的发送速率跟不上它的产生数据速率。这一般会发生在一条输入多条输出的 Operator(比如 flatmap)。这种情况,该节点是反压的根源节点,它是从 Source Task 到 Sink Task 的第一个出现反压的节点
(2)下游的节点接受速率较慢,通过反压机制限制了该节点的发送速率。这种情况,需要继续排查下游节点,一直找到第一个为 OK 的一般就是根源节点
产生反应的可能性
定位反压节点
我们可以通过 Web UI 各个 SubTask 的 Records Sent 和 Record Received 来确认,另外 Checkpoint detail 里不同 SubTask 的 State size 也是一个分析数据倾斜的有用指标。
查看是否数据倾斜
如果不是数据倾斜,最常见的问题可能是用户代码的执行效率问题(频繁被阻塞或者性能问题),需要找到瓶颈算子中的哪部分计算逻辑消耗巨大。最有用的办法就是对 TaskManager 进行 CPU profile,从中我们可以分析到 Task Thread 是否跑满一个 CPU 核:如果是的话要分析 CPU 主要花费在哪些函数里面;如果不是的话要看 Task Thread 阻塞在哪里,可能是用户函数本身有些同步的调用,可能是checkpoint 或者 GC 等系统活动导致的暂时系统暂停
纵向是调用链,从下往上,顶部就是正在执行的函数横向是样本出现次数,可以理解为执行时长。看顶层的哪个函数占据的宽度最大。只要有\"平顶\"(plateaus),就表示该函数可能存在性能问题
使用火焰图分析
TaskManager 的内存以及 GC 问题也可能会导致反压,包括 TaskManager JVM 各区内存不合理导致的频繁 Full GC 甚至失联。通常建议使用默认的 G1 垃圾回收器
通过 GC 日志分析出单个 Flink Taskmanager 堆总大小、年轻代、老年代分配的内存空间、Full GC 后老年代剩余大小等
分析GC情况
如果发现我们的 Source 端数据读取性能比较低或者 Sink 端写入性能较差,需要检查第三方组件是否遇到瓶颈,还有就是做维表 join 时的性能问题
外部组件交互
反压的原因及处理
三、反压处理
相同 Task 的多个 Subtask 中,个别 Subtask 接收到的数据量明显大于其他Subtask 接收到的数据量,通过 Flink Web UI 可以精确地看到每个 Subtask 处理了多少数据,即可判断出 Flink 任务是否存在数据倾斜
有时 Checkpoint detail 里不同 SubTask 的 State size 也是一个分析数据倾斜的有用指标
判断是否存在数据倾斜
Flink 是实时流处理,如果 keyby 之后的聚合操作存在数据倾斜,且没有开窗口(没攒批)的情况下,简单的认为使用两阶段聚合,是不能解决问题的。因为这个时候 Flink 是来一条处理一条,且向下游发送一条结果,对于原来 keyby 的维度(第二阶段聚合)来讲,数据量并没有减少,
1、不能直接用二次聚合来处理
在 keyBy 上游算子数据发送之前,首先在上游算子的本地对数据进行聚合后,再发送到下游,使下游接收到的数据量大大减少
2、使用 LocalKeyBy 的思想
keyBy 后的聚合操作存在数据倾斜
如果 keyBy 之前就存在数据倾斜,上游算子的某些实例可能处理的数据较多,某些实例可能处理的数据较少,产生该情况可能是因为数据源的数据本身就不均匀,例如由于某些原因 Kafka 的 topic 中某些 partition 的数据量较大,某些 partition 的数据量较少
这种情况,需要让 Flink 任务强制进行 shuffle。使用 shuffle、rebalance 或 rescale算子即可将数据均匀分配,从而解决数据倾斜的问题。
keyBy 之前发生数据倾斜
第一阶段聚合:key 拼接随机数前缀或后缀,进行 keyby、开窗、聚合注意:聚合完不再是 WindowedStream,要获取 WindowEnd 作为窗口标记作为第二阶段分组依据,避免不同窗口的结果聚合到一起
第二阶段聚合:按照原来的 key 及 windowEnd 作 keyby、聚合
注意:随机数范围,需要自己去测,因为 keyby 的分区器是(两次 hash*下游并行度/最大并行度)
两阶段聚合实现思路
keyBy 后的窗口聚合操作存在数据倾斜
数据倾斜的解决
四、数据倾斜
Flink调优
0 条评论
回复 删除
下一页