Flink的八种分区策略源码解读

开源
Flink包含8中分区策略,这8中分区策略(分区器)分别如下面所示,本文将从源码的角度一一解读每个分区器的实现方式。

[[399426]]

本文转载自微信公众号「大数据技术与数仓」,作者西贝。转载本文请联系大数据技术与数仓公众号。

 Flink包含8中分区策略,这8中分区策略(分区器)分别如下面所示,本文将从源码的角度一一解读每个分区器的实现方式。

  • GlobalPartitioner
  • ShufflePartitioner
  • RebalancePartitioner
  • RescalePartitioner
  • BroadcastPartitioner
  • ForwardPartitioner
  • KeyGroupStreamPartitioner
  • CustomPartitionerWrapper

继承关系图

接口

名称

ChannelSelector

实现

  1. public interface ChannelSelector<T extends IOReadableWritable> { 
  2.  
  3.     /** 
  4.      * 初始化channels数量,channel可以理解为下游Operator的某个实例(并行算子的某个subtask). 
  5.      */ 
  6.     void setup(int numberOfChannels); 
  7.  
  8.     /** 
  9.      *根据当前的record以及Channel总数, 
  10.      *决定应将record发送到下游哪个Channel。 
  11.      *不同的分区策略会实现不同的该方法。 
  12.      */ 
  13.     int selectChannel(T record); 
  14.  
  15.     /** 
  16.     *是否以广播的形式发送到下游所有的算子实例 
  17.      */ 
  18.     boolean isBroadcast(); 

抽象类

名称

StreamPartitioner

实现

  1. public abstract class StreamPartitioner<T> implements 
  2.         ChannelSelector<SerializationDelegate<StreamRecord<T>>>, Serializable { 
  3.     private static final long serialVersionUID = 1L; 
  4.  
  5.     protected int numberOfChannels; 
  6.  
  7.     @Override 
  8.     public void setup(int numberOfChannels) { 
  9.         this.numberOfChannels = numberOfChannels; 
  10.     } 
  11.  
  12.     @Override 
  13.     public boolean isBroadcast() { 
  14.         return false
  15.     } 
  16.  
  17.     public abstract StreamPartitioner<T> copy(); 

继承关系图

GlobalPartitioner

简介

该分区器会将所有的数据都发送到下游的某个算子实例(subtask id = 0)

源码解读

  1. /** 
  2.  * 发送所有的数据到下游算子的第一个task(ID = 0) 
  3.  * @param <T> 
  4.  */ 
  5. @Internal 
  6. public class GlobalPartitioner<T> extends StreamPartitioner<T> { 
  7.     private static final long serialVersionUID = 1L; 
  8.  
  9.     @Override 
  10.     public int selectChannel(SerializationDelegate<StreamRecord<T>> record) { 
  11.         //只返回0,即只发送给下游算子的第一个task 
  12.         return 0; 
  13.     } 
  14.  
  15.     @Override 
  16.     public StreamPartitioner<T> copy() { 
  17.         return this; 
  18.     } 
  19.  
  20.     @Override 
  21.     public String toString() { 
  22.         return "GLOBAL"
  23.     } 

图解

ShufflePartitioner

简介

随机选择一个下游算子实例进行发送

源码解读

  1. /** 
  2.  * 随机的选择一个channel进行发送 
  3.  * @param <T> 
  4.  */ 
  5. @Internal 
  6. public class ShufflePartitioner<T> extends StreamPartitioner<T> { 
  7.     private static final long serialVersionUID = 1L; 
  8.  
  9.     private Random random = new Random(); 
  10.  
  11.     @Override 
  12.     public int selectChannel(SerializationDelegate<StreamRecord<T>> record) { 
  13.         //产生[0,numberOfChannels)伪随机数,随机发送到下游的某个task 
  14.         return random.nextInt(numberOfChannels); 
  15.     } 
  16.  
  17.     @Override 
  18.     public StreamPartitioner<T> copy() { 
  19.         return new ShufflePartitioner<T>(); 
  20.     } 
  21.  
  22.     @Override 
  23.     public String toString() { 
  24.         return "SHUFFLE"
  25.     } 

图解

BroadcastPartitioner

简介

发送到下游所有的算子实例

源码解读

  1. /** 
  2.  * 发送到所有的channel 
  3.  */ 
  4. @Internal 
  5. public class BroadcastPartitioner<T> extends StreamPartitioner<T> { 
  6.     private static final long serialVersionUID = 1L; 
  7.     /** 
  8.      * Broadcast模式是直接发送到下游的所有task,所以不需要通过下面的方法选择发送的通道 
  9.      */ 
  10.     @Override 
  11.     public int selectChannel(SerializationDelegate<StreamRecord<T>> record) { 
  12.         throw new UnsupportedOperationException("Broadcast partitioner does not support select channels."); 
  13.     } 
  14.  
  15.     @Override 
  16.     public boolean isBroadcast() { 
  17.         return true
  18.     } 
  19.  
  20.     @Override 
  21.     public StreamPartitioner<T> copy() { 
  22.         return this; 
  23.     } 
  24.  
  25.     @Override 
  26.     public String toString() { 
  27.         return "BROADCAST"
  28.     } 

图解

RebalancePartitioner

简介

通过循环的方式依次发送到下游的task

源码解读

  1. /** 
  2.  *通过循环的方式依次发送到下游的task 
  3.  * @param <T> 
  4.  */ 
  5. @Internal 
  6. public class RebalancePartitioner<T> extends StreamPartitioner<T> { 
  7.     private static final long serialVersionUID = 1L; 
  8.  
  9.     private int nextChannelToSendTo; 
  10.  
  11.     @Override 
  12.     public void setup(int numberOfChannels) { 
  13.         super.setup(numberOfChannels); 
  14.         //初始化channel的id,返回[0,numberOfChannels)的伪随机数 
  15.         nextChannelToSendTo = ThreadLocalRandom.current().nextInt(numberOfChannels); 
  16.     } 
  17.  
  18.     @Override 
  19.     public int selectChannel(SerializationDelegate<StreamRecord<T>> record) { 
  20.         //循环依次发送到下游的task,比如:nextChannelToSendTo初始值为0,numberOfChannels(下游算子的实例个数,并行度)值为2 
  21.         //则第一次发送到ID = 1的task,第二次发送到ID = 0的task,第三次发送到ID = 1的task上...依次类推 
  22.         nextChannelToSendTo = (nextChannelToSendTo + 1) % numberOfChannels; 
  23.         return nextChannelToSendTo; 
  24.     } 
  25.  
  26.     public StreamPartitioner<T> copy() { 
  27.         return this; 
  28.     } 
  29.  
  30.     @Override 
  31.     public String toString() { 
  32.         return "REBALANCE"
  33.     } 

图解

RescalePartitioner

简介

基于上下游Operator的并行度,将记录以循环的方式输出到下游Operator的每个实例。

举例: 上游并行度是2,下游是4,则上游一个并行度以循环的方式将记录输出到下游的两个并行度上;上游另一个并行度以循环的方式将记录输出到下游另两个并行度上。

若上游并行度是4,下游并行度是2,则上游两个并行度将记录输出到下游一个并行度上;上游另两个并行度将记录输出到下游另一个并行度上。

源码解读

  1. @Internal 
  2. public class RescalePartitioner<T> extends StreamPartitioner<T> { 
  3.     private static final long serialVersionUID = 1L; 
  4.  
  5.     private int nextChannelToSendTo = -1; 
  6.  
  7.     @Override 
  8.     public int selectChannel(SerializationDelegate<StreamRecord<T>> record) { 
  9.         if (++nextChannelToSendTo >= numberOfChannels) { 
  10.             nextChannelToSendTo = 0; 
  11.         } 
  12.         return nextChannelToSendTo; 
  13.     } 
  14.  
  15.     public StreamPartitioner<T> copy() { 
  16.         return this; 
  17.     } 
  18.  
  19.     @Override 
  20.     public String toString() { 
  21.         return "RESCALE"
  22.     } 

图解

尖叫提示

Flink 中的执行图可以分成四层:StreamGraph -> JobGraph -> ExecutionGraph -> 物理执行图。

StreamGraph:是根据用户通过 Stream API 编写的代码生成的最初的图。用来表示程序的拓扑结构。

JobGraph:StreamGraph经过优化后生成了 JobGraph,提交给 JobManager 的数据结构。主要的优化为,将多个符合条件的节点 chain 在一起作为一个节点,这样可以减少数据在节点之间流动所需要的序列化/反序列化/传输消耗。

ExecutionGraph:JobManager 根据 JobGraph 生成ExecutionGraph。ExecutionGraph是JobGraph的并行化版本,是调度层最核心的数据结构。

物理执行图:JobManager 根据 ExecutionGraph 对 Job 进行调度后,在各个TaskManager 上部署 Task 后形成的“图”,并不是一个具体的数据结构。

而StreamingJobGraphGenerator就是StreamGraph转换为JobGraph。在这个类中,把ForwardPartitioner和RescalePartitioner列为POINTWISE分配模式,其他的为ALL_TO_ALL分配模式。代码如下:

  1. if (partitioner instanceof ForwardPartitioner || partitioner instanceof RescalePartitioner) { 
  2.             jobEdge = downStreamVertex.connectNewDataSetAsInput( 
  3.                 headVertex, 
  4.  
  5.                // 上游算子(生产端)的实例(subtask)连接下游算子(消费端)的一个或者多个实例(subtask) 
  6.                 DistributionPattern.POINTWISE, 
  7.                 resultPartitionType); 
  8.         } else { 
  9.             jobEdge = downStreamVertex.connectNewDataSetAsInput( 
  10.                 headVertex, 
  11.                 // 上游算子(生产端)的实例(subtask)连接下游算子(消费端)的所有实例(subtask) 
  12.                 DistributionPattern.ALL_TO_ALL, 
  13.                 resultPartitionType); 
  14.         } 

ForwardPartitioner

简介

发送到下游对应的第一个task,保证上下游算子并行度一致,即上有算子与下游算子是1:1的关系

源码解读

  1. /** 
  2.  * 发送到下游对应的第一个task 
  3.  * @param <T> 
  4.  */ 
  5. @Internal 
  6. public class ForwardPartitioner<T> extends StreamPartitioner<T> { 
  7.     private static final long serialVersionUID = 1L; 
  8.  
  9.     @Override 
  10.     public int selectChannel(SerializationDelegate<StreamRecord<T>> record) { 
  11.         return 0; 
  12.     } 
  13.  
  14.     public StreamPartitioner<T> copy() { 
  15.         return this; 
  16.     } 
  17.  
  18.     @Override 
  19.     public String toString() { 
  20.         return "FORWARD"
  21.     } 

图解

尖叫提示

在上下游的算子没有指定分区器的情况下,如果上下游的算子并行度一致,则使用ForwardPartitioner,否则使用RebalancePartitioner,对于ForwardPartitioner,必须保证上下游算子并行度一致,否则会抛出异常

  1. //在上下游的算子没有指定分区器的情况下,如果上下游的算子并行度一致,则使用ForwardPartitioner,否则使用RebalancePartitioner 
  2.             if (partitioner == null && upstreamNode.getParallelism() == downstreamNode.getParallelism()) { 
  3.                 partitioner = new ForwardPartitioner<Object>(); 
  4.             } else if (partitioner == null) { 
  5.                 partitioner = new RebalancePartitioner<Object>(); 
  6.             } 
  7.  
  8.             if (partitioner instanceof ForwardPartitioner) { 
  9.                 //如果上下游的并行度不一致,会抛出异常 
  10.                 if (upstreamNode.getParallelism() != downstreamNode.getParallelism()) { 
  11.                     throw new UnsupportedOperationException("Forward partitioning does not allow " + 
  12.                         "change of parallelism. Upstream operation: " + upstreamNode + " parallelism: " + upstreamNode.getParallelism() + 
  13.                         ", downstream operation: " + downstreamNode + " parallelism: " + downstreamNode.getParallelism() + 
  14.                         " You must use another partitioning strategy, such as broadcast, rebalance, shuffle or global."); 
  15.                 } 
  16.             } 

KeyGroupStreamPartitioner

简介

根据key的分组索引选择发送到相对应的下游subtask

源码解读

  1. /** 
  2.  * 根据key的分组索引选择发送到相对应的下游subtask 
  3.  * @param <T> 
  4.  * @param <K> 
  5.  */ 
  6. @Internal 
  7. public class KeyGroupStreamPartitioner<T, K> extends StreamPartitioner<T> implements ConfigurableStreamPartitioner { 
  8. ... 
  9.  
  10.     @Override 
  11.     public int selectChannel(SerializationDelegate<StreamRecord<T>> record) { 
  12.         K key
  13.         try { 
  14.             key = keySelector.getKey(record.getInstance().getValue()); 
  15.         } catch (Exception e) { 
  16.             throw new RuntimeException("Could not extract key from " + record.getInstance().getValue(), e); 
  17.         } 
  18.         //调用KeyGroupRangeAssignment类的assignKeyToParallelOperator方法,代码如下所示 
  19.         return KeyGroupRangeAssignment.assignKeyToParallelOperator(key, maxParallelism, numberOfChannels); 
  20.     } 
  21. ... 
  • org.apache.flink.runtime.state.KeyGroupRangeAssignment
  1. public final class KeyGroupRangeAssignment { 
  2. ... 
  3.  
  4.     /** 
  5.      * 根据key分配一个并行算子实例的索引,该索引即为该key要发送的下游算子实例的路由信息, 
  6.      * 即该key发送到哪一个task 
  7.      */ 
  8.     public static int assignKeyToParallelOperator(Object keyint maxParallelism, int parallelism) { 
  9.         Preconditions.checkNotNull(key"Assigned key must not be null!"); 
  10.         return computeOperatorIndexForKeyGroup(maxParallelism, parallelism, assignToKeyGroup(key, maxParallelism)); 
  11.     } 
  12.  
  13.     /** 
  14.      *根据key分配一个分组id(keyGroupId) 
  15.      */ 
  16.     public static int assignToKeyGroup(Object keyint maxParallelism) { 
  17.         Preconditions.checkNotNull(key"Assigned key must not be null!"); 
  18.         //获取key的hashcode 
  19.         return computeKeyGroupForKeyHash(key.hashCode(), maxParallelism); 
  20.     } 
  21.  
  22.     /** 
  23.      * 根据key分配一个分组id(keyGroupId), 
  24.      */ 
  25.     public static int computeKeyGroupForKeyHash(int keyHash, int maxParallelism) { 
  26.  
  27.         //与maxParallelism取余,获取keyGroupId 
  28.         return MathUtils.murmurHash(keyHash) % maxParallelism; 
  29.     } 
  30.  
  31.     //计算分区index,即该key group应该发送到下游的哪一个算子实例 
  32.     public static int computeOperatorIndexForKeyGroup(int maxParallelism, int parallelism, int keyGroupId) { 
  33.         return keyGroupId * parallelism / maxParallelism; 
  34.     } 
  35. ... 

图解

CustomPartitionerWrapper

简介

通过Partitioner实例的partition方法(自定义的)将记录输出到下游。

  1. public class CustomPartitionerWrapper<K, T> extends StreamPartitioner<T> { 
  2.     private static final long serialVersionUID = 1L; 
  3.  
  4.     Partitioner<K> partitioner; 
  5.     KeySelector<T, K> keySelector; 
  6.  
  7.     public CustomPartitionerWrapper(Partitioner<K> partitioner, KeySelector<T, K> keySelector) { 
  8.         this.partitioner = partitioner; 
  9.         this.keySelector = keySelector; 
  10.     } 
  11.  
  12.     @Override 
  13.     public int selectChannel(SerializationDelegate<StreamRecord<T>> record) { 
  14.         K key
  15.         try { 
  16.             key = keySelector.getKey(record.getInstance().getValue()); 
  17.         } catch (Exception e) { 
  18.             throw new RuntimeException("Could not extract key from " + record.getInstance(), e); 
  19.         } 
  20. //实现Partitioner接口,重写partition方法 
  21.         return partitioner.partition(key, numberOfChannels); 
  22.     } 
  23.  
  24.     @Override 
  25.     public StreamPartitioner<T> copy() { 
  26.         return this; 
  27.     } 
  28.  
  29.     @Override 
  30.     public String toString() { 
  31.         return "CUSTOM"
  32.     } 

比如:

  1. public class CustomPartitioner implements Partitioner<String> { 
  2.       // key: 根据key的值来分区 
  3.       // numPartitions: 下游算子并行度 
  4.       @Override 
  5.       public int partition(String keyint numPartitions) { 
  6.          return key.length() % numPartitions;//在此处定义分区策略 
  7.       } 
  8.   } 

小结

本文主要从源码层面对Flink的8中分区策略进行了一一分析,并对每一种分区策略给出了相对应的图示,方便快速理解源码。如果你觉得本文对你有用,可以关注我,了解更多精彩内容。

 

责任编辑:武晓燕 来源: 大数据技术与数仓
相关推荐

2023-03-10 15:31:45

2024-02-27 08:05:32

Flink分区机制数据传输

2020-07-08 12:05:55

Java线程池策略

2010-05-10 16:20:32

负载均衡策略

2009-09-25 14:20:28

Hibernate继承映射

2011-06-09 13:48:48

程序员

2010-06-28 09:19:07

微软开源

2009-10-23 14:34:00

光纤接入技术

2023-03-30 09:06:20

HiveSpark大数据

2023-11-20 13:52:00

Redis数据库

2010-10-11 10:31:51

MySQL分区

2015-06-15 10:32:44

Java核心源码解读

2016-08-29 19:12:52

JavascriptBackbone前端

2010-01-27 10:37:17

Android图片浏览

2010-09-09 08:39:30

2016-07-05 14:09:02

AndroidJAVA内存

2010-08-24 09:49:44

2021-08-02 10:46:02

云计算用途

2023-09-05 15:19:12

2017-04-24 09:20:05

Spark分析分区器
点赞
收藏

51CTO技术栈公众号