热门标签 | HotTags
当前位置:  开发笔记 > 编程语言 > 正文

源码SparkBroadcast源码分析

本博文的主要内容包括:1、Broadcast功能描述2、Broadcast创建过程3、Broadcast读写原理一、功能描述Broadcast是指将数据从一个节点发送到其他节点,供

本博文的主要内容包括:

1、Broadcast功能描述

2、Broadcast创建过程

3、Broadcast读写原理

一、功能描述

Broadcast是指将数据从一个节点发送到其他节点,供其计算使用,是spark在计算过程中非常常用的方式,通常使用方式,包括共享配置文件,map数据集,树形数据结构等,为能够更好更快速为TASK任务使用相关变量。但是Broadcast不适合存放过大的数据,这会导致网络IO性能变差或者过重的单点压力。

Broadcast的基本用法:

      本文是借鉴网络大神的经验,结合自己的走读的一些总结,如有雷同之处,希望谅解!

二、创建过程

Broadcast是典型的建造者模式方法,相对内部设计相对较为简单,同时初始化并非直接创建Broadcast对象,作用有两个方面:

1)依据配置属性(spark.broadcast.factory)创建BroadcastFactory对象 – 反射创建。

2)将sparkConf对象注入Broadcast中,同时定义压缩编码。

初始化入口sparkContext启动时创建,调用过程如下:

1)SparkContext#构造方法

2)SparkEnv#create

3)BroadcastManager#initialize()

4)TorrentBroadcastFactoryr#initialize(isDriver: Boolean, conf: SparkConf, securityMgr: SecurityManager)

5)TorrentBroadcast#initialize(_isDriver: Boolean, conf: SparkConf)

SparkContext初始化SparkEnv,在SparkEnv内创建BroadcastManager,代码如下:

SparkContext

[html]
view plain
copy

  1. // Create the Spark execution environment (cache, map output tracker, etc)    
  2.   // 创建spark的执行环境    
  3.   private[spark] val env = SparkEnv.create(    
  4.     conf, // spark配置文件    
  5.     &#8220;<driver>&#8220;,    
  6.     conf.get(&#8220;spark.driver.host&#8221;), // 主机名    
  7.     conf.get(&#8220;spark.driver.port&#8221;).toInt, // 端口号    
  8.     isDriver = true, // 默认启动SparkContext客户端,便是Driver    
  9.     isLocal = isLocal,// 是否是本地运行,是通过master获取该值,如果是submit提交,请参考SparkSubmitArguments类,会将参数转换为master    
  10.     listenerBus = listenerBus     
  11.     /* spark监听总线(LiveListenerBus),他是负责监听spark事件,包括job启动和介绍、BlockManage的添加等等,简单理解UI能看到的变化都是这块监听的,   
  12.      * 如果有时间,可以将这块与大家分享一下,底层使用队列实现,典型观察者模式实现,未使用akka实现 */    
  13.     )    
  14.   SparkEnv.set(env) // 注册SparkEnv对象  

SparkEnv中初始化BroadcastManager

[html]
view plain
copy

  1. val blockManager = new BlockManager(executorId, actorSystem, blockManagerMaster,    
  2.       serializer, conf, securityManager, mapOutputTracker, shuffleManager)    
  3.     
  4. val connectionManager = blockManager.connectionManager    
  5.     
  6. val broadcastManager = new BroadcastManager(isDriver, conf, securityManager)    
  7.     
  8. val cacheManager = new CacheManager(blockManager)  

BroadcastManager构造函数调用initialize方法构建

[html]
view plain
copy

  1. // Called by SparkContext or Executor before using Broadcast    
  2.   // 一个context仅初始化一次,默认是Torrent    
  3.   private def initialize() {    
  4.     // TODO 初始化BroadcastFactory    
  5.     // 1.确定仅有第一次进入时,创建BroadcastFactory对象    
  6.     // 2.初始化BroadcastFactory,并与BroadcastManager建立hook    
  7.         
  8.     synchronized {    
  9.       if (!initialized) {    
  10.    
  11.         val broadcastFactoryClass =    
  12.           conf.get(&#8220;spark.broadcast.factory&#8221;, &#8220;org.apache.spark.broadcast.TorrentBroadcastFactory&#8221;)  //默认采用<span style=&#8220;font-family: Arial, Helvetica, sans-serif;&#8221;>TorrentBroadcastFactoryspan>  
  13.         broadcastFactory =    
  14.           Class.forName(broadcastFactoryClass).newInstance.asInstanceOf[BroadcastFactory]    
  15.     
  16.         //初始化BroadcastFactory,并与BroadcastManager建立hook    
  17.         broadcastFactory.initialize(isDriver, conf, securityManager)    
  18.         //表示第一次进入完毕    
  19.         initialized = true    
  20.       }    
  21.     }    
  22.   }  

TorrentBroadcastFactory调用initialize方法

[java]
view plain
copy

  1. override def initialize(isDriver: Boolean, conf: SparkConf, securityMgr: SecurityManager) {    
  2.     TorrentBroadcast.initialize(isDriver, conf)    
  3. }  

将sparkConf对象注入Broadcast中,并定义压缩方式

[java]
view plain
copy

  1. /** 初始化TorrentBroadcast属性 */    
  2.   def initialize(_isDriver: Boolean, conf: SparkConf) {    
  3.     TorrentBroadcast.conf = conf // TODO: we might have to fix it in tests    
  4.     synchronized {    
  5.       if (!initialized) {    
  6.         compress = conf.getBoolean(&#8220;spark.broadcast.compress&#8221;true)    
  7.         compressionCodec = CompressionCodec.createCodec(conf)    
  8.         initialized = true    
  9.       }    
  10.     }    
  11.   }  

broadcast是在sparkContext创建时完成的,broadcast类型、压缩方式也是在创建过程中完成的定义,但是,目前还无法实现app中不同job使用不同的broadcast,广播的方式只能选择TorrentBroadcast和HttpBroadcast的一种。spark默认使用TorrentBroadcast(并发),效率相对要比http要好,同时避免单机热点的产生,比较适合分布式系统的思想。思想类似于迅雷BT下载,已使用的executor越多,速度越快。

Broadcast创建

driver首先要将值序列化到byteArray中,然后再按block大小进行分割(默认是4M),将信息存放在driver的blockmanage中,并通知BlockManageMaster,完成注册,并可以让所有executor读取,存储方式MEMORY_AND_DISK。

使用write顺序:

1)SparkContext#broadcast  外层方法,使用sc.broadcast 进行广播

2) BroadcastManager#newBroadcast(value_ : T, isLocal: Boolean)

3)TorrentBroadcastFactory#newBroadcast(value_ : T, isLocal: Boolean, id:Long)

4)TorrentBroadcast#构造函数

5)TorrentBroadcast#writeBlocks

6)BlockManage#putBytes(

      blockId: BlockId,

      bytes: ByteBuffer,

      level: StorageLevel,

      tellMaster: Boolean = true,

      effectiveStorageLevel:Option[StorageLevel] = None)   最终存储

当然,使用广播较为简单,但是,如果sparkContext长时间执行多个job时,则考虑注销广播,或者尽量广播要小,否则会造成性能严重下降,具体原因尚未研究。

注销方式代码如下:

[java]
view plain
copy

  1. val broadcastValue = sc.broadcast(存储值)  
  2. broadcastValue.unpersist() //方法一  
  3. SparkEnv.get.broadcastManager.unbroadcast(id, falsefalse//方法二  

创建时,使用SparkContext的broadcast方法,并将值一直传递至TorrentBroadcast,并构建TorrentBroadcast对象,同时完成将值交给BlockManage进行注册,并序列化在本地存储。(SparkEnv.get.blockManager.putBytes方法)

TorrentBroadcast

[java]
view plain
copy

  1. private[spark] class TorrentBroadcast[T: ClassTag](    
  2.     obj : T,    
  3.     @transient private val isLocal: Boolean,    
  4.     id: Long)    
  5.   extends Broadcast[T](id) with Logging with Serializable {    
  6.     
  7.     
  8.  /** 1.driver是直接读取本地的值  
  9.   *  2.其他executor是依靠blockManager读取(readObject) */    
  10.   @transient private var _value: T = obj    
  11.     
  12.   /* 固定格式:  
  13.   * broadcastId = broadcast_广播ID  
  14.   * blockID = broadcast_广播ID_piece[1,2,3,4] */    
  15.   private val broadcastId = BroadcastBlockId(id)    
  16.     
  17.   /** 1.广播值交给blockManager管理  
  18.    *  2.广播转换为ByteArray,返回数据块的长度 */    
  19.   private val numBlocks: Int = writeBlocks()    
  20.     
  21.   override protected def getValue() = _value  

[java]
view plain
copy

  1. }  

writeBlocks是主要执行写方法,主要功能便是按照定义的广播块大小切分数据(默认是4M,spark.broadcast.blockSize),其后将块注册blockManage,并写入本地磁盘中。

writeBlocks(){

   1.blockifyObject  数据切分方法

   2.BlockManage.putBytes  数据存储方法

}

blockifyObject  代码如下:

[java]
view plain
copy

  1. /** 切分数据,方法较为实用,可作为工具类 
  2.    *  @param obj 切分数据对象 */    
  3.   def blockifyObject[T: ClassTag](obj: T): Array[ByteBuffer] = {    
  4.     // TODO: Create a special ByteArrayOutputStream that splits the output directly into chunks    
  5.     // so we don&#8217;t need to do the extra memory copy.    
  6.     // TODO 数据切块,按照默认的4M切分数据块,返回4MByteBuffer(数据体检变小)    
  7.     //      数据 -> 压缩 -> 序列化 -> 分割    
  8.     // 1. 声明输出流(定义压缩方式和序列化)    
  9.     // 2. 压缩后数据按4M进行分割    
  10.     // 3. 返回ByteBuffer字符    
  11.         
  12.     // 1.0 定义输出流    
  13.     val bos = new ByteArrayOutputStream()    
  14.     // 1.1 包装压缩方式    
  15.     val out: OutputStream = if (compress) compressionCodec.compressedOutputStream(bos) else bos    
  16.     // 1.2 创建序列化对象    
  17.     val ser = SparkEnv.get.serializer.newInstance()    
  18.     // 1.3 包装序列化输出流(默认java序列化,不过一般推荐KryoSerializer,建议修改spark-defaults.conf)    
  19.     val serOut = ser.serializeStream(out)    
  20.     // 1.4 将value写至ByteArray中    
  21.     serOut.writeObject[T](obj).close()    
  22.     val byteArray = bos.toByteArray    
  23.     // 2.0 将ByteArray转换为输入流    
  24.     val bais = new ByteArrayInputStream(byteArray)    
  25.     // 2.1 获取分割块数,ceil有余数+1    
  26.     val numBlocks = math.ceil(byteArray.length.toDouble / BLOCK_SIZE).toInt    
  27.     // 2.2 定义数据块集合    
  28.     val blocks = new Array[ByteBuffer](numBlocks)    
  29.     // 2.3 定义块ID    
  30.     var blockId = 0    
  31.     // 2.4 循环按4M分割数据块,步长为4M    
  32.     for (i <- 0 until (byteArray.length, BLOCK_SIZE)) {    
  33.       // 2.4.1 定义装载4M的byte的容器    
  34.       val thisBlockSize = math.min(BLOCK_SIZE, byteArray.length &#8211; i)    
  35.       val tempByteArray = new Array[Byte](thisBlockSize)    
  36.       // 2.4.2 装载数据    
  37.       bais.read(tempByteArray, 0, thisBlockSize)    
  38.       blocks(blockId) = ByteBuffer.wrap(tempByteArray)    
  39.       // 2.4.3 index加一    
  40.       blockId += 1    
  41.     }    
  42.     // 3.0 切分结束,关闭流    
  43.     bais.close()    
  44.     // 3.1 返回流    
  45.     blocks    
  46.   }  

Broadcast读取

broadcase写入是优先写入依据存储策略写入本地(BlockManage#putBytes方法),既然序列化数据是本地存储,由此而来的问题是读取问题,BlockManage存储数据并不似hdfs会依据备份策略存储多份数据放置不同节点(但是多提一句,spark的taskScheblue是拥有类似机架感知策略分配任务),如没有备份数据,那么必然产生一下数个问题:
   1.节点故障,无法访问节点数据
   2.数据热点,所有任务皆使用该数据
   3.网络传输,所有节点频繁访问单节点
那么解决该问题,spark并没有使用HDFS的思想,而选择是P2P点对点方式(BT下载)解决问题,是只要使用过broadcase数据,则在本接节点存储数据,由此变成新的数据源,随和数据源不断增加速度也会越来越快,刚开始传输则相对会慢一些,同时,以上不建议使用大文件broadcase,亦是如此,如果使用较为频繁的数据,他相当于每个节点都要存储一份,形成网状传输方式交换数据,因此建议存储配置文件或某种数据结构为上佳选择。
 
调用顺序:
1)TorrentBroadcast#readObject()
2)TorrentBroadcast#readBlocks()
3)BlockManage#getLocalBytes(blockId:BlockId) / getRemoteBytes(blockId: BlockId)
4)BlockManage#putBytes()

readObject是broadcase读取的主方法,管理整个读取策略

[java]
view plain
copy

  1. /** Used by the JVM when deserializing this object. */    
  2.   private def readObject(in: ObjectInputStream) {    
  3.     // TODO 读取广播变量,有便读取本地,没有则远程并存储在本地    
  4.         
  5.     // 1.0 可读取对象中静态变量    
  6.     in.defaultReadObject()    
  7.     // 2.0 读取广播变量(单个executor独享)    
  8.     TorrentBroadcast.synchronized {    
  9.       // 2.1 读取本地广播数据    
  10.       SparkEnv.get.blockManager.getLocal(broadcastId).map(_.data.next()) match {    
  11.         // 2.2 获取本地数据成功    
  12.         case Some(x) =>    
  13.           _value = x.asInstanceOf[T]    
  14.         // 2.3 获取本地数据失败    
  15.         case None =>    
  16.           // 2.4 获取Blocks,同时将块存储到本地    
  17.           logInfo(&#8220;启动读取 broadcast variable &#8220; + id)    
  18.           val start = System.nanoTime()    
  19.           val blocks = readBlocks()    
  20.           val time = (System.nanoTime() &#8211; start) / 1e9    
  21.           logInfo(&#8220;Reading broadcast variable &#8220; + id + &#8221; took &#8220; + time + &#8221; s&#8221;)    
  22.     
  23.           // 2.5 将数据块反序列化,并解压缩    
  24.           _value = TorrentBroadcast.unBlockifyObject[T](blocks)    
  25.           // Store the merged copy in BlockManager so other tasks on this executor don&#8217;t    
  26.           // need to re-fetch it.    
  27.           SparkEnv.get.blockManager.putSingle(    
  28.             broadcastId, _value, StorageLevel.MEMORY_AND_DISK, tellMaster = false)    
  29.       }    
  30.     }    
  31.   }  

readBlocks则是实现P2P思想的具体实现者,代码如下:
[java]
view plain
copy

  1. /** Fetch torrent blocks from the driver and/or other executors. */    
  2.   private def readBlocks(): Array[ByteBuffer] = {    
  3.     // Fetch chunks of data. Note that all these chunks are stored in the BlockManager and reported    
  4.     // to the driver, so other executors can pull these chunks from this executor as well.    
  5.         
  6.     // 1.0 定义数据块集合    
  7.     val blocks = new Array[ByteBuffer](numBlocks)    
  8.     // 1.1 引用blockManager    
  9.     val bm = SparkEnv.get.blockManager    
  10.         
  11.     // 2.0 循环遍历所有块,避免访问热点,随机顺序读    
  12.     for (pid <- Random.shuffle(Seq.range(0, numBlocks))) {    
  13.       // 2.1 组装块ID    
  14.       val pieceId = BroadcastBlockId(id, &#8220;piece&#8221; + pid)    
  15.     
  16.       // First try getLocalBytes because  there is a chance that previous attempts to fetch the    
  17.       // broadcast blocks have already fetched some of the blocks. In that case, some blocks    
  18.       // would be available locally (on this executor).    
  19.       // 2.2 他会先查本地,继而查询远程,但是前面已经查找的是广播,现在查找的是认数据块(区别)    
  20.       var blockOpt = bm.getLocalBytes(pieceId)    
  21.       // 2.3 如果本地为查询到结果,则通过blockManager远程获取,并将数据存储到本地    
  22.       if (!blockOpt.isDefined) {    
  23.         blockOpt = bm.getRemoteBytes(pieceId)    
  24.         blockOpt match {    
  25.           case Some(block) =>    
  26.             // If we found the block from remote executors/driver&#8217;s BlockManager, put the block    
  27.             // in this executor&#8217;s BlockManager.    
  28.             SparkEnv.get.blockManager.putBytes(    
  29.               pieceId,    
  30.               block,    
  31.               StorageLevel.MEMORY_AND_DISK_SER,    
  32.               tellMaster = true)    
  33.     
  34.           case None =>    
  35.             throw new SparkException(&#8220;Failed to get &#8220; + pieceId + &#8221; of &#8220; + broadcastId)    
  36.         }    
  37.       }    
  38.       // If we get here, the option is defined.    
  39.       // 3.0 赋值数据块集合    
  40.       blocks(pid) = blockOpt.get    
  41.     }    
  42.     // 3.1 返回数据块    
  43.     blocks    
  44.   }  

相关配置属性说明:(在spark-default.conf中设置)

spark.broadcast.factory 定义使用http或Torrent方式,默认是Torrent,无需修改

spark.broadcast.blockSize 数据库块大小,blockifyObject依据此属性切分数据块,默认4M

spark.broadcast.compress 是否压缩,默认是使用,sparkcontext初始化该属性,无需修改。


推荐阅读
  • 本文介绍了如何使用MATLAB调用摄像头进行人脸检测和识别。首先需要安装扩展工具,并下载安装OS Generic Video Interface。然后使用MATLAB的机器视觉工具箱中的VJ算法进行人脸检测,可以直接调用CascadeObjectDetector函数进行检测。同时还介绍了如何调用摄像头进行人脸识别,并对每一帧图像进行识别。最后,给出了一些相关的参考资料和实例。 ... [详细]
  • 本文介绍了如何在Mac上使用Pillow库加载不同于默认字体和大小的字体,并提供了一个简单的示例代码。通过该示例,读者可以了解如何在Python中使用Pillow库来写入不同字体的文本。同时,本文也解决了在Mac上使用Pillow库加载字体时可能遇到的问题。读者可以根据本文提供的示例代码,轻松实现在Mac上使用Pillow库加载不同字体的功能。 ... [详细]
  • 本文讨论了在Spring 3.1中,数据源未能自动连接到@Configuration类的错误原因,并提供了解决方法。作者发现了错误的原因,并在代码中手动定义了PersistenceAnnotationBeanPostProcessor。作者删除了该定义后,问题得到解决。此外,作者还指出了默认的PersistenceAnnotationBeanPostProcessor的注册方式,并提供了自定义该bean定义的方法。 ... [详细]
  • Spring特性实现接口多类的动态调用详解
    本文详细介绍了如何使用Spring特性实现接口多类的动态调用。通过对Spring IoC容器的基础类BeanFactory和ApplicationContext的介绍,以及getBeansOfType方法的应用,解决了在实际工作中遇到的接口及多个实现类的问题。同时,文章还提到了SPI使用的不便之处,并介绍了借助ApplicationContext实现需求的方法。阅读本文,你将了解到Spring特性的实现原理和实际应用方式。 ... [详细]
  • PHP中的单例模式与静态变量的区别及使用方法
    本文介绍了PHP中的单例模式与静态变量的区别及使用方法。在PHP中,静态变量的存活周期仅仅是每次PHP的会话周期,与Java、C++不同。静态变量在PHP中的作用域仅限于当前文件内,在函数或类中可以传递变量。本文还通过示例代码解释了静态变量在函数和类中的使用方法,并说明了静态变量的生命周期与结构体的生命周期相关联。同时,本文还介绍了静态变量在类中的使用方法,并通过示例代码展示了如何在类中使用静态变量。 ... [详细]
  • 标题: ... [详细]
  • Android开发实现的计时器功能示例
    本文分享了Android开发实现的计时器功能示例,包括效果图、布局和按钮的使用。通过使用Chronometer控件,可以实现计时器功能。该示例适用于Android平台,供开发者参考。 ... [详细]
  • 浏览器中的异常检测算法及其在深度学习中的应用
    本文介绍了在浏览器中进行异常检测的算法,包括统计学方法和机器学习方法,并探讨了异常检测在深度学习中的应用。异常检测在金融领域的信用卡欺诈、企业安全领域的非法入侵、IT运维中的设备维护时间点预测等方面具有广泛的应用。通过使用TensorFlow.js进行异常检测,可以实现对单变量和多变量异常的检测。统计学方法通过估计数据的分布概率来计算数据点的异常概率,而机器学习方法则通过训练数据来建立异常检测模型。 ... [详细]
  • 第四章高阶函数(参数传递、高阶函数、lambda表达式)(python进阶)的讲解和应用
    本文主要讲解了第四章高阶函数(参数传递、高阶函数、lambda表达式)的相关知识,包括函数参数传递机制和赋值机制、引用传递的概念和应用、默认参数的定义和使用等内容。同时介绍了高阶函数和lambda表达式的概念,并给出了一些实例代码进行演示。对于想要进一步提升python编程能力的读者来说,本文将是一个不错的学习资料。 ... [详细]
  • 本文由编程笔记小编整理,主要介绍了使用Junit和黄瓜进行自动化测试中步骤缺失的问题。文章首先介绍了使用cucumber和Junit创建Runner类的代码,然后详细说明了黄瓜功能中的步骤和Steps类的实现。本文对于需要使用Junit和黄瓜进行自动化测试的开发者具有一定的参考价值。摘要长度:187字。 ... [详细]
  • 重入锁(ReentrantLock)学习及实现原理
    本文介绍了重入锁(ReentrantLock)的学习及实现原理。在学习synchronized的基础上,重入锁提供了更多的灵活性和功能。文章详细介绍了重入锁的特性、使用方法和实现原理,并提供了类图和测试代码供读者参考。重入锁支持重入和公平与非公平两种实现方式,通过对比和分析,读者可以更好地理解和应用重入锁。 ... [详细]
  • NotSupportedException无法将类型“System.DateTime”强制转换为类型“System.Object”
    本文介绍了在使用LINQ to Entities时出现的NotSupportedException异常,该异常是由于无法将类型“System.DateTime”强制转换为类型“System.Object”所导致的。同时还介绍了相关的错误信息和解决方法。 ... [详细]
  • Centos7搭建ELK(Elasticsearch、Logstash、Kibana)教程及注意事项
    本文介绍了在Centos7上搭建ELK(Elasticsearch、Logstash、Kibana)的详细步骤,包括下载安装包、安装Elasticsearch、创建用户、修改配置文件等。同时提供了使用华为镜像站下载安装包的方法,并强调了保证版本一致的重要性。 ... [详细]
  • 本文由编程笔记#小编为大家整理,主要介绍了源码分析--ConcurrentHashMap与HashTable(JDK1.8)相关的知识,希望对你有一定的参考价值。  Concu ... [详细]
  • 这个问题困扰了我两天,卸载Dr.COM客户端(我们学校上网要装这个客户端登陆服务器,以后只能在网页里输入用户名和密码了),问题解决了。问题的现象:在实验室机台式机上安装openfire和sp ... [详细]
author-avatar
jzhs5340636
这个家伙很懒,什么也没留下!
PHP1.CN | 中国最专业的PHP中文社区 | DevBox开发工具箱 | json解析格式化 |PHP资讯 | PHP教程 | 数据库技术 | 服务器技术 | 前端开发技术 | PHP框架 | 开发工具 | 在线工具
Copyright © 1998 - 2020 PHP1.CN. All Rights Reserved | 京公网安备 11010802041100号 | 京ICP备19059560号-4 | PHP1.CN 第一PHP社区 版权所有