Spark 的见解 & 优化 (四)

本贴最后更新于 2156 天前,其中的信息可能已经物是人非

优化

 这里调优主要针对于开发相关的调优见解,参数相关的调优在次不做赘述。

一:广播频繁使用的变量
在 spark 运算中如果有利用 master 表的数据(只读)且数量较大的场景,那么这种场景利用广播该变量来提升性能。

不使用广播变量的场景:
 那么 spark 就会把该数据以网络传输给各个 task,然后每个 task 都有该数据的副本,task 越多,对该数据副本的网络传输也越多,相对应的会加大网络的损耗。副本过多的话也会加大内存的损耗。
使用广播变量的场景:
 那么 spark 就会把该数据的副本以广播的形式缓存到各个节点上,每个节点的所有 task 执行运算时共享该副本,因为每个节点只驻留一份副本,所有内存开销比不用广播变量的要小许多,而且 spark 使用有效的广播算法来分配广播变量,以降低通信成本。

  SparkConf conf = new SparkConf();
  conf.setMaster("local[1]");
  conf.setAppName("test");
  JavaSparkContext jc = new JavaSparkContext(conf);
  Set masters = new HashSet<>();
  masters.add(1);
  masters.add(2);
  masters.add(3);
  List list = new ArrayList<>();
  list.add(1);
  list.add(2);
  list.add(3);
  list.add(4);
  // 广播变量
  Broadcast<Set<Integer>> broadcastVar = jc.broadcast(masters);
  jc.parallelize(list).filter(x->broadcastVar.value().contains(x)?false:true).foreach(x-> System.out.println(x));
 
  结果:
  4

二:mapPartitions 替代 map,foreachPartition 替代 foreach
 不带 partitions 是对应的函数进行转换/遍历所有数据,带 partitions 是对应的函数进行转换/遍历一个分区的数据,优缺点主要有以下几点:
 1)带 partitions 的增加了并行度,对性能有一定的提升
 2)如果要遍历数据往数据库插入数据,每一条数据都执行(创建连接-> 插入数据-> 释放连接)这样的流程的话,性能是十分低下的,而一个分区的数据只使用一个连接,然后批量插入这个分区的数据,最后再释放连接,这种性能上的提升是显著的

  SparkConf conf = new SparkConf();
  conf.setMaster("local[1]");
  conf.setAppName("test");
  JavaSparkContext jc = new JavaSparkContext(conf);
  List<String> list = new ArrayList<>();
  list.add("sql1");
  list.add("sql2");
  list.add("sql3");
  list.add("sql4");
  jc.parallelize(list).foreachPartition(x->{
	// 获取连接
	Connection connection = getConn();
	x.forEachRemaining(x1->{
        connection.prepareStatement(x1);
	});
	// 释放连接
    connection.close();
  });

三:先使用 map 跟 filter 操作对数据结构进行优化跟缩减
 1)数据源最终都会变成一个广范的且有 schema 的对象,如果是计数/去重相关的操作,如果值是无关紧要的,就缩减为 0/1 等,减少内存占用。
 2)做具体的业务之前先看一下是不是所有字段/属性都是必须的,如果有 10 个字段,你只取其中的 3 个字段的话,就尽量把多余的字段/属性给过滤掉。
 3)上面 2 步在层次嵌套较深且数据量大的运算中有很大提升,因为不但减少了内存占用,Shuffle 传输的性能也有提高

  SparkConf conf = new SparkConf();
  conf.setMaster("local[1]");
  conf.setAppName("test");
  JavaSparkContext jc = new JavaSparkContext(conf);
  List<Map<String,Object>> list = new ArrayList<>();
  Map<String,Object>  item = new HashMap<>();
  item.put("a","a1");
  item.put("b","b1");
  item.put("c","c1");
  item.put("d","d1");
  item.put("e","e1");
  list.add(item);
  item = new HashMap<>();
  item.put("a","a11");
  item.put("b","b11");
  item.put("c","c11");
  item.put("d","d11");
  item.put("e","e11");
  item.put("f","e11");
  list.add(item);
  item = new HashMap<>();
  item.put("b","b21");
  item.put("d","d21");
  item.put("e","e21");
  list.add(item);
  // 统计key=a出现的个数
  jc.parallelize(list)
	// 把map的每一条键值对变成多条记录
	.flatMap(x->x.entrySet().iterator())
	// 过滤a以外的key
	.filter(x->"a".equals(x.getKey()))
	// 因为统计key,value从string->int
	.mapToPair(x->new Tuple2<>(x.getKey(),1))
	// 统计
	.reduceByKey((var1,var2)->var1+var2)
	// 遍历
	.foreachPartition(x-> x.forEachRemaining(x1->System.out.println(x1)));
  
  结果:
  (a,2)

四:使用 filter 后进行 coalesce
 如果对 RDD 使用 filter 算子过渡掉较多的数据后,建议使用 coalesce 算子对分区进行缩减操作,使用 coalesce 缩减分区不会产生 Shuffle 操作,适用于数据量较少但分区数较多的场景

  SparkConf conf = new SparkConf();
  conf.setMaster("local[1]");
  conf.setAppName("test");
  JavaSparkContext jc = new JavaSparkContext(conf);
  List<Map<String,Object>> list = new ArrayList<>();
  Map<String,Object>  item = new HashMap<>();
  item.put("a","a1");
  item.put("b","b1");
  item.put("c","c1");
  item.put("d","d1");
  item.put("e","e1");
  list.add(item);
  item = new HashMap<>();
  item.put("a","a11");
  item.put("b","b11");
  item.put("c","c11");
  item.put("d","d11");
  item.put("e","e11");
  item.put("f","e11");
  list.add(item);
  item = new HashMap<>();
  item.put("b","b21");
  item.put("d","d21");
  item.put("e","e21");
  list.add(item);
  // 统计key为a的出现的个数
  JavaRDD, Object>> filter = jc.parallelize(list, 4)
	// 把map的每一条键值对变成多条记录
	.flatMap(x -> x.entrySet().iterator())
	// 过滤a以外的key
	.filter(x -> "a".equals(x.getKey()));
  System.out.println("coalesce前分区数:"+filter.partitions().size());
  // coalesce
  JavaRDD, Object>> coalesce = filter.coalesce(1);
  System.out.println("coalesce后分区数:"+coalesce.partitions().size());
 
  结果:
  coalesce前分区数:4
  coalesce后分区数:1

五:使用 Kryo 进行序列化/反序列化
 spark2.0.0 之前,默认使用的是 java 自带的序列化机制,同时 spark 也支持高性能的 kryo 序列化机制(官方说明比 java 的性能要快 10 倍),但是如果自定义的对象需要在 kryo 进行提前注册才能获得最佳性能。从 spark2.0.0 开始,spark 已经对 kryo 的 github 在这里,大家有兴趣可以自行研究一下。

  // student类
  public class Student {
   private String name;
   private int age;
   private String sex;

   public Student(String name, int age, String sex) {
     this.name = name;
	 this.age = age;
	 this.sex = sex;
   }

   public String getName() {
        return name;
   }

   public void setName(String name) {
        this.name = name;
   }

   public int getAge() {
        return age;
   }

   public void setAge(int age) {
        this.age = age;
   }

   public String getSex() {
        return sex;
   }

   public void setSex(String sex) {
        this.sex = sex;
   }
  }

  // spark示例代码
  SparkConf conf = new SparkConf();
  conf.setMaster("local[1]");
  conf.setAppName("test");
  conf.set("spark.serializer", "org.apache.spark.serializer.KryoSerializer");
  // conf.registerKryoClasses(new Class[]{Student.class});
  JavaSparkContext jc = new JavaSparkContext(conf);
  List<Student> list = new ArrayList<>();
  for(int i=0;i<1000000;i++){
	list.add(new Student("name_"+i,i,"male"));
  }
  JavaRDD students = jc.parallelize(list);
  // 持久化
  students.persist(StorageLevel.MEMORY_ONLY_SER());
  System.out.println(students.count());
  
  结果:
  使用kryo序列化策略且没有提前注册自定义类的情况下:
  INFO MemoryStore: Block rdd_0_0 stored as bytes in memory (estimated size 28.5 MB, free 883.8 MB)
  使用kryo序列化策略且提前注册自定义类的情况下:
  INFO MemoryStore: Block rdd_0_0 stored as bytes in memory (estimated size 20.9 MB, free 891.4 MB)

六:对多次使用的 RDD 进行持久化
 spark 多次复用 RDD 的原理:每当你对这个 RDD 进行算子操作的时候,spark 都会从源头把这个 RDD 再算出来,然后再对这个 RDD 再进行算子操作,这种情况下,不对这个复用的 RDD 进行持久化操作的话,性能就很差。如果把这个 RDD 持久化到磁盘或者内存后,再针对于这个 RDD 进行算子操作的时候,直接从磁盘或者内存中提取这个 RDD,因为不用再从源头重新计算,这样效率就高了许多。五的示例已经有了持久化的示例,故不再写相关的示例代码。spark 对于持久化的策略有许多种,详细的请参考 org.apache.spark.storage.StorageLevel 这个类
七:尽量避免 Shuffle 算子
 前一篇已经对 Shffle 操作,以及宽窄依赖做了比较详细的说明,所以尽量用非 Shuffle 的算子 + 广播变量等形式来完成业务,这样就可以尽量避免大规模的 IO 操作以及网络传输,可以大大减少性能开销。
八:使用 map-side 预聚合的 shuffle 操作
 如果 Shuffle 算子是不可避免的,那么尽量使用 map-side 预聚合的算子。
 所谓的 map-side 预聚合,就是每个节点都是对相同的 key 进行一次聚合操作,进行 map-side 预聚合后,每个节点都只会留下一个相同的 key,其他节点在拉取相同的 key 的时候,就会大大缩减拉取的数据,从而达到缩减减小 IO 跟网络开销的目的。
 下面以 groupByKey 跟 reduceByKey 进行某个 key 的 sum 统计举例说明:
 groupByKey:

 reduceByKey:

 groupByKey 示例代码:

  SparkConf conf = new SparkConf();
  conf.setMaster("local[1]");
  conf.setAppName("test");
  JavaSparkContext jc = new JavaSparkContext(conf);
  List<Map<String,Integer>> list = new ArrayList<>();
  Map<String,Integer> map = new HashMap<>();
  map.put("yy",1);
  map.put("jj",1);
  map.put("ww",1);
  list.add(map);
  map = new HashMap<>();
  map.put("yy",1);
  list.add(map);
  map = new HashMap<>();
  map.put("yy",1);
  map.put("jj",1);
  list.add(map);
  map = new HashMap<>();
  map.put("yy",1);
  map.put("jj",2);
  list.add(map);
  map = new HashMap<>();
  map.put("jj",1);
  map.put("ww",2);
  list.add(map);
  map = new HashMap<>();
  map.put("ww",1);
  list.add(map);
  jc.parallelize(list)
	// 遍历所有的key
	.flatMap(x -> x.entrySet().iterator())
	// 组成K,V键值对
	.mapToPair(x -> new Tuple2<>(x.getKey(), x.getValue()))
    // groupByKey
	.groupByKey()
    // sum
	.mapValues(x->sum(x)).foreach(x-> System.out.println(x));

  // sum函数
  private static int sum(Iterable integers){
    int sum = 0;
    if(integers != null){
        Iterator iterator = integers.iterator();
	    while (iterator.hasNext()){
            sum += iterator.next();
		}
    }
    return sum;
  } 

 reduceByKey 示例代码:

  SparkConf conf = new SparkConf();
  conf.setMaster("local[1]");
  conf.setAppName("test");
  JavaSparkContext jc = new JavaSparkContext(conf);
  List<Map<String,Integer>> list = new ArrayList<>();
  Map<String,Integer> map = new HashMap<>();
  map.put("yy",1);
  map.put("jj",1);
  map.put("ww",1);
  list.add(map);
  map = new HashMap<>();
  map.put("yy",1);
  list.add(map);
  map = new HashMap<>();
  map.put("yy",1);
  map.put("jj",1);
  list.add(map);
  map = new HashMap<>();
  map.put("yy",1);
  map.put("jj",2);
  list.add(map);
  map = new HashMap<>();
  map.put("jj",1);
  map.put("ww",2);
  list.add(map);
  map = new HashMap<>();
  map.put("ww",1);
  list.add(map);
  jc.parallelize(list)
	// 遍历所有的key
	.flatMap(x -> x.entrySet().iterator())
	// 组成K,V键值对
	.mapToPair(x -> new Tuple2<>(x.getKey(), x.getValue()))
	// reduceByKey
	.reduceByKey((var1,var2)->var1+var2).foreach(x-> System.out.println(x));

 调优相关的官方资料:http://spark.apache.org/docs/latest/tuning.html

上一篇

  • Spark

    Spark 是 UC Berkeley AMP lab 所开源的类 Hadoop MapReduce 的通用并行框架。Spark 拥有 Hadoop MapReduce 所具有的优点;但不同于 MapReduce 的是 Job 中间输出结果可以保存在内存中,从而不再需要读写 HDFS,因此 Spark 能更好地适用于数据挖掘与机器学习等需要迭代的 MapReduce 的算法。

    74 引用 • 46 回帖 • 560 关注

相关帖子

欢迎来到这里!

我们正在构建一个小众社区,大家在这里相互信任,以平等 • 自由 • 奔放的价值观进行分享交流。最终,希望大家能够找到与自己志同道合的伙伴,共同成长。

注册 关于
请输入回帖内容 ...

推荐标签 标签

  • Swagger

    Swagger 是一款非常流行的 API 开发工具,它遵循 OpenAPI Specification(这是一种通用的、和编程语言无关的 API 描述规范)。Swagger 贯穿整个 API 生命周期,如 API 的设计、编写文档、测试和部署。

    26 引用 • 35 回帖 • 5 关注
  • SQLServer

    SQL Server 是由 [微软] 开发和推广的关系数据库管理系统(DBMS),它最初是由 微软、Sybase 和 Ashton-Tate 三家公司共同开发的,并于 1988 年推出了第一个 OS/2 版本。

    21 引用 • 31 回帖 • 4 关注
  • RabbitMQ

    RabbitMQ 是一个开源的 AMQP 实现,服务器端用 Erlang 语言编写,支持多种语言客户端,如:Python、Ruby、.NET、Java、C、PHP、ActionScript 等。用于在分布式系统中存储转发消息,在易用性、扩展性、高可用性等方面表现不俗。

    49 引用 • 60 回帖 • 361 关注
  • flomo

    flomo 是新一代 「卡片笔记」 ,专注在碎片化时代,促进你的记录,帮你积累更多知识资产。

    5 引用 • 107 回帖
  • OAuth

    OAuth 协议为用户资源的授权提供了一个安全的、开放而又简易的标准。与以往的授权方式不同之处是 oAuth 的授权不会使第三方触及到用户的帐号信息(如用户名与密码),即第三方无需使用用户的用户名与密码就可以申请获得该用户资源的授权,因此 oAuth 是安全的。oAuth 是 Open Authorization 的简写。

    36 引用 • 103 回帖 • 17 关注
  • RESTful

    一种软件架构设计风格而不是标准,提供了一组设计原则和约束条件,主要用于客户端和服务器交互类的软件。基于这个风格设计的软件可以更简洁,更有层次,更易于实现缓存等机制。

    30 引用 • 114 回帖 • 3 关注
  • DNSPod

    DNSPod 建立于 2006 年 3 月份,是一款免费智能 DNS 产品。 DNSPod 可以为同时有电信、网通、教育网服务器的网站提供智能的解析,让电信用户访问电信的服务器,网通的用户访问网通的服务器,教育网的用户访问教育网的服务器,达到互联互通的效果。

    6 引用 • 26 回帖 • 518 关注
  • Elasticsearch

    Elasticsearch 是一个基于 Lucene 的搜索服务器。它提供了一个分布式多用户能力的全文搜索引擎,基于 RESTful 接口。Elasticsearch 是用 Java 开发的,并作为 Apache 许可条款下的开放源码发布,是当前流行的企业级搜索引擎。设计用于云计算中,能够达到实时搜索,稳定,可靠,快速,安装使用方便。

    117 引用 • 99 回帖 • 209 关注
  • 微服务

    微服务架构是一种架构模式,它提倡将单一应用划分成一组小的服务。服务之间互相协调,互相配合,为用户提供最终价值。每个服务运行在独立的进程中。服务于服务之间才用轻量级的通信机制互相沟通。每个服务都围绕着具体业务构建,能够被独立的部署。

    96 引用 • 155 回帖
  • 旅游

    希望你我能在旅途中找到人生的下一站。

    93 引用 • 899 回帖 • 1 关注
  • 禅道

    禅道是一款国产的开源项目管理软件,她的核心管理思想基于敏捷方法 scrum,内置了产品管理和项目管理,同时又根据国内研发现状补充了测试管理、计划管理、发布管理、文档管理、事务管理等功能,在一个软件中就可以将软件研发中的需求、任务、bug、用例、计划、发布等要素有序的跟踪管理起来,完整地覆盖了项目管理的核心流程。

    5 引用 • 15 回帖 • 101 关注
  • DevOps

    DevOps(Development 和 Operations 的组合词)是一组过程、方法与系统的统称,用于促进开发(应用程序/软件工程)、技术运营和质量保障(QA)部门之间的沟通、协作与整合。

    51 引用 • 25 回帖
  • Sillot

    Insights(注意当前设置 master 为默认分支)

    汐洛彖夲肜矩阵(Sillot T☳Converbenk Matrix),致力于服务智慧新彖乄,具有彖乄驱动、极致优雅、开发者友好的特点。其中汐洛绞架(Sillot-Gibbet)基于自思源笔记(siyuan-note),前身是思源笔记汐洛版(更早是思源笔记汐洛分支),是智慧新录乄终端(多端融合,移动端优先)。

    主仓库地址:Hi-Windom/Sillot

    文档地址:sillot.db.sc.cn

    注意事项:

    1. ⚠️ 汐洛仍在早期开发阶段,尚不稳定
    2. ⚠️ 汐洛并非面向普通用户设计,使用前请了解风险
    3. ⚠️ 汐洛绞架基于思源笔记,开发者尽最大努力与思源笔记保持兼容,但无法实现 100% 兼容
    29 引用 • 25 回帖 • 86 关注
  • Ant-Design

    Ant Design 是服务于企业级产品的设计体系,基于确定和自然的设计价值观上的模块化解决方案,让设计者和开发者专注于更好的用户体验。

    17 引用 • 23 回帖 • 4 关注
  • Eclipse

    Eclipse 是一个开放源代码的、基于 Java 的可扩展开发平台。就其本身而言,它只是一个框架和一组服务,用于通过插件组件构建开发环境。

    75 引用 • 258 回帖 • 624 关注
  • 区块链

    区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。所谓共识机制是区块链系统中实现不同节点之间建立信任、获取权益的数学算法 。

    91 引用 • 751 回帖 • 1 关注
  • Oracle

    Oracle(甲骨文)公司,全称甲骨文股份有限公司(甲骨文软件系统有限公司),是全球最大的企业级软件公司,总部位于美国加利福尼亚州的红木滩。1989 年正式进入中国市场。2013 年,甲骨文已超越 IBM,成为继 Microsoft 后全球第二大软件公司。

    105 引用 • 127 回帖 • 370 关注
  • 机器学习

    机器学习(Machine Learning)是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。

    83 引用 • 37 回帖
  • RIP

    愿逝者安息!

    8 引用 • 92 回帖 • 363 关注
  • Typecho

    Typecho 是一款博客程序,它在 GPLv2 许可证下发行,基于 PHP 构建,可以运行在各种平台上,支持多种数据库(MySQL、PostgreSQL、SQLite)。

    12 引用 • 65 回帖 • 446 关注
  • Vditor

    Vditor 是一款浏览器端的 Markdown 编辑器,支持所见即所得、即时渲染(类似 Typora)和分屏预览模式。它使用 TypeScript 实现,支持原生 JavaScript、Vue、React 和 Angular。

    354 引用 • 1823 回帖 • 1 关注
  • 开源中国

    开源中国是目前中国最大的开源技术社区。传播开源的理念,推广开源项目,为 IT 开发者提供了一个发现、使用、并交流开源技术的平台。目前开源中国社区已收录超过两万款开源软件。

    7 引用 • 86 回帖
  • PWL

    组织简介

    用爱发电 (Programming With Love) 是一个以开源精神为核心的民间开源爱好者技术组织,“用爱发电”象征开源与贡献精神,加入组织,代表你将遵守组织的“个人开源爱好者”的各项条款。申请加入:用爱发电组织邀请帖
    用爱发电组织官网:https://programmingwithlove.stackoverflow.wiki/

    用爱发电组织的核心驱动力:

    • 遵守开源守则,体现开源&贡献精神:以分享为目的,拒绝非法牟利。
    • 自我保护:使用适当的 License 保护自己的原创作品。
    • 尊重他人:不以各种理由、各种漏洞进行未经允许的抄袭、散播、洩露;以礼相待,尊重所有对社区做出贡献的开发者;通过他人的分享习得知识,要留下足迹,表示感谢。
    • 热爱编程、热爱学习:加入组织,热爱编程是首当其要的。我们欢迎热爱讨论、分享、提问的朋友,也同样欢迎默默成就的朋友。
    • 倾听:正确并恳切对待、处理问题与建议,及时修复开源项目的 Bug ,及时与反馈者沟通。不抬杠、不无视、不辱骂。
    • 平视:不诋毁、轻视、嘲讽其他开发者,主动提出建议、施以帮助,以和谐为本。只要他人肯努力,你也可能会被昔日小看的人所超越,所以请保持谦虚。
    • 乐观且活跃:你的努力决定了你的高度。不要放弃,多年后回头俯瞰,才会发现自己已经成就往日所仰望的水平。积极地将项目开源,帮助他人学习、改进,自己也会获得相应的提升、成就与成就感。
    1 引用 • 487 回帖 • 2 关注
  • 正则表达式

    正则表达式(Regular Expression)使用单个字符串来描述、匹配一系列遵循某个句法规则的字符串。

    31 引用 • 94 回帖 • 2 关注
  • SEO

    发布对别人有帮助的原创内容是最好的 SEO 方式。

    35 引用 • 200 回帖 • 27 关注
  • 代码片段

    代码片段分为 CSS 与 JS 两种代码,添加在 [设置 - 外观 - 代码片段] 中,这些代码会在思源笔记加载时自动执行,用于改善笔记的样式或功能。

    用户在该标签下分享代码片段时需在帖子标题前添加 [css] [js] 用于区分代码片段类型。

    90 引用 • 562 回帖 • 1 关注
  • 快应用

    快应用 是基于手机硬件平台的新型应用形态;标准是由主流手机厂商组成的快应用联盟联合制定;快应用标准的诞生将在研发接口、能力接入、开发者服务等层面建设标准平台;以平台化的生态模式对个人开发者和企业开发者全品类开放。

    15 引用 • 127 回帖 • 1 关注