加入收藏 | 设为首页 | 会员中心 | 我要投稿 西安站长网 (https://www.029zz.com.cn/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 教程 > 正文

大数据计算框架Spark之任务调度

发布时间:2019-04-09 01:14:05 所属栏目:教程 来源:甜橙很酸
导读:副标题#e# Spark有几种资源调度设施。每个Spark Application(SparkContext实例)独立地运行在一组executor进程内。cluster manager为应用间的调度提供设施。在每个Spark应用内,如果将多个job(多个spark action)提交给不同的线程,那么他们会并行运行。 1 Ap

每个池一个,在XML文件中没有配置的池使用默认配置(调度模式 FIFO, weight 1, minShare 0),例如:

  1. <?xml version="1.0"?><allocations>  
  2. <pool name="production">  
  3. <schedulingMode>FAIR</schedulingMode>  
  4. <weight>1</weight>  
  5. <minShare>2</minShare>  
  6. </pool> 
  7.  
  8. <pool name="test">  
  9. <schedulingMode>FIFO</schedulingMode>  
  10. <weight>2</weight>  
  11. <minShare>3</minShare>  
  12. </pool></allocations> 

【编辑推荐】

  1. 比拼生态和未来,Spark和Flink哪家强?
  2. Apache Kafka与Spark Streaming的两种整合方法及其优缺点
  3. Adaptive Execution 让 Spark SQL 更智能更高效
  4. 用Spark 来做大规模图形挖掘:第一部分
  5. 大数据的技术生态?Hadoop、Hive、Spark之间是什么关系?
【责任编辑:未丽燕 TEL:(010)68476606】
点赞 0

(编辑:西安站长网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

推荐文章
    热点阅读