Spark 的见解 & 优化 (四)

本贴最后更新于 2125 天前,其中的信息可能已经物是人非

优化

 这里调优主要针对于开发相关的调优见解,参数相关的调优在次不做赘述。

一:广播频繁使用的变量
在 spark 运算中如果有利用 master 表的数据(只读)且数量较大的场景,那么这种场景利用广播该变量来提升性能。

不使用广播变量的场景:
 那么 spark 就会把该数据以网络传输给各个 task,然后每个 task 都有该数据的副本,task 越多,对该数据副本的网络传输也越多,相对应的会加大网络的损耗。副本过多的话也会加大内存的损耗。
使用广播变量的场景:
 那么 spark 就会把该数据的副本以广播的形式缓存到各个节点上,每个节点的所有 task 执行运算时共享该副本,因为每个节点只驻留一份副本,所有内存开销比不用广播变量的要小许多,而且 spark 使用有效的广播算法来分配广播变量,以降低通信成本。

  SparkConf conf = new SparkConf();
  conf.setMaster("local[1]");
  conf.setAppName("test");
  JavaSparkContext jc = new JavaSparkContext(conf);
  Set masters = new HashSet<>();
  masters.add(1);
  masters.add(2);
  masters.add(3);
  List list = new ArrayList<>();
  list.add(1);
  list.add(2);
  list.add(3);
  list.add(4);
  // 广播变量
  Broadcast<Set<Integer>> broadcastVar = jc.broadcast(masters);
  jc.parallelize(list).filter(x->broadcastVar.value().contains(x)?false:true).foreach(x-> System.out.println(x));
 
  结果:
  4

二:mapPartitions 替代 map,foreachPartition 替代 foreach
 不带 partitions 是对应的函数进行转换/遍历所有数据,带 partitions 是对应的函数进行转换/遍历一个分区的数据,优缺点主要有以下几点:
 1)带 partitions 的增加了并行度,对性能有一定的提升
 2)如果要遍历数据往数据库插入数据,每一条数据都执行(创建连接-> 插入数据-> 释放连接)这样的流程的话,性能是十分低下的,而一个分区的数据只使用一个连接,然后批量插入这个分区的数据,最后再释放连接,这种性能上的提升是显著的

  SparkConf conf = new SparkConf();
  conf.setMaster("local[1]");
  conf.setAppName("test");
  JavaSparkContext jc = new JavaSparkContext(conf);
  List<String> list = new ArrayList<>();
  list.add("sql1");
  list.add("sql2");
  list.add("sql3");
  list.add("sql4");
  jc.parallelize(list).foreachPartition(x->{
	// 获取连接
	Connection connection = getConn();
	x.forEachRemaining(x1->{
        connection.prepareStatement(x1);
	});
	// 释放连接
    connection.close();
  });

三:先使用 map 跟 filter 操作对数据结构进行优化跟缩减
 1)数据源最终都会变成一个广范的且有 schema 的对象,如果是计数/去重相关的操作,如果值是无关紧要的,就缩减为 0/1 等,减少内存占用。
 2)做具体的业务之前先看一下是不是所有字段/属性都是必须的,如果有 10 个字段,你只取其中的 3 个字段的话,就尽量把多余的字段/属性给过滤掉。
 3)上面 2 步在层次嵌套较深且数据量大的运算中有很大提升,因为不但减少了内存占用,Shuffle 传输的性能也有提高

  SparkConf conf = new SparkConf();
  conf.setMaster("local[1]");
  conf.setAppName("test");
  JavaSparkContext jc = new JavaSparkContext(conf);
  List<Map<String,Object>> list = new ArrayList<>();
  Map<String,Object>  item = new HashMap<>();
  item.put("a","a1");
  item.put("b","b1");
  item.put("c","c1");
  item.put("d","d1");
  item.put("e","e1");
  list.add(item);
  item = new HashMap<>();
  item.put("a","a11");
  item.put("b","b11");
  item.put("c","c11");
  item.put("d","d11");
  item.put("e","e11");
  item.put("f","e11");
  list.add(item);
  item = new HashMap<>();
  item.put("b","b21");
  item.put("d","d21");
  item.put("e","e21");
  list.add(item);
  // 统计key=a出现的个数
  jc.parallelize(list)
	// 把map的每一条键值对变成多条记录
	.flatMap(x->x.entrySet().iterator())
	// 过滤a以外的key
	.filter(x->"a".equals(x.getKey()))
	// 因为统计key,value从string->int
	.mapToPair(x->new Tuple2<>(x.getKey(),1))
	// 统计
	.reduceByKey((var1,var2)->var1+var2)
	// 遍历
	.foreachPartition(x-> x.forEachRemaining(x1->System.out.println(x1)));
  
  结果:
  (a,2)

四:使用 filter 后进行 coalesce
 如果对 RDD 使用 filter 算子过渡掉较多的数据后,建议使用 coalesce 算子对分区进行缩减操作,使用 coalesce 缩减分区不会产生 Shuffle 操作,适用于数据量较少但分区数较多的场景

  SparkConf conf = new SparkConf();
  conf.setMaster("local[1]");
  conf.setAppName("test");
  JavaSparkContext jc = new JavaSparkContext(conf);
  List<Map<String,Object>> list = new ArrayList<>();
  Map<String,Object>  item = new HashMap<>();
  item.put("a","a1");
  item.put("b","b1");
  item.put("c","c1");
  item.put("d","d1");
  item.put("e","e1");
  list.add(item);
  item = new HashMap<>();
  item.put("a","a11");
  item.put("b","b11");
  item.put("c","c11");
  item.put("d","d11");
  item.put("e","e11");
  item.put("f","e11");
  list.add(item);
  item = new HashMap<>();
  item.put("b","b21");
  item.put("d","d21");
  item.put("e","e21");
  list.add(item);
  // 统计key为a的出现的个数
  JavaRDD, Object>> filter = jc.parallelize(list, 4)
	// 把map的每一条键值对变成多条记录
	.flatMap(x -> x.entrySet().iterator())
	// 过滤a以外的key
	.filter(x -> "a".equals(x.getKey()));
  System.out.println("coalesce前分区数:"+filter.partitions().size());
  // coalesce
  JavaRDD, Object>> coalesce = filter.coalesce(1);
  System.out.println("coalesce后分区数:"+coalesce.partitions().size());
 
  结果:
  coalesce前分区数:4
  coalesce后分区数:1

五:使用 Kryo 进行序列化/反序列化
 spark2.0.0 之前,默认使用的是 java 自带的序列化机制,同时 spark 也支持高性能的 kryo 序列化机制(官方说明比 java 的性能要快 10 倍),但是如果自定义的对象需要在 kryo 进行提前注册才能获得最佳性能。从 spark2.0.0 开始,spark 已经对 kryo 的 github 在这里,大家有兴趣可以自行研究一下。

  // student类
  public class Student {
   private String name;
   private int age;
   private String sex;

   public Student(String name, int age, String sex) {
     this.name = name;
	 this.age = age;
	 this.sex = sex;
   }

   public String getName() {
        return name;
   }

   public void setName(String name) {
        this.name = name;
   }

   public int getAge() {
        return age;
   }

   public void setAge(int age) {
        this.age = age;
   }

   public String getSex() {
        return sex;
   }

   public void setSex(String sex) {
        this.sex = sex;
   }
  }

  // spark示例代码
  SparkConf conf = new SparkConf();
  conf.setMaster("local[1]");
  conf.setAppName("test");
  conf.set("spark.serializer", "org.apache.spark.serializer.KryoSerializer");
  // conf.registerKryoClasses(new Class[]{Student.class});
  JavaSparkContext jc = new JavaSparkContext(conf);
  List<Student> list = new ArrayList<>();
  for(int i=0;i<1000000;i++){
	list.add(new Student("name_"+i,i,"male"));
  }
  JavaRDD students = jc.parallelize(list);
  // 持久化
  students.persist(StorageLevel.MEMORY_ONLY_SER());
  System.out.println(students.count());
  
  结果:
  使用kryo序列化策略且没有提前注册自定义类的情况下:
  INFO MemoryStore: Block rdd_0_0 stored as bytes in memory (estimated size 28.5 MB, free 883.8 MB)
  使用kryo序列化策略且提前注册自定义类的情况下:
  INFO MemoryStore: Block rdd_0_0 stored as bytes in memory (estimated size 20.9 MB, free 891.4 MB)

六:对多次使用的 RDD 进行持久化
 spark 多次复用 RDD 的原理:每当你对这个 RDD 进行算子操作的时候,spark 都会从源头把这个 RDD 再算出来,然后再对这个 RDD 再进行算子操作,这种情况下,不对这个复用的 RDD 进行持久化操作的话,性能就很差。如果把这个 RDD 持久化到磁盘或者内存后,再针对于这个 RDD 进行算子操作的时候,直接从磁盘或者内存中提取这个 RDD,因为不用再从源头重新计算,这样效率就高了许多。五的示例已经有了持久化的示例,故不再写相关的示例代码。spark 对于持久化的策略有许多种,详细的请参考 org.apache.spark.storage.StorageLevel 这个类
七:尽量避免 Shuffle 算子
 前一篇已经对 Shffle 操作,以及宽窄依赖做了比较详细的说明,所以尽量用非 Shuffle 的算子 + 广播变量等形式来完成业务,这样就可以尽量避免大规模的 IO 操作以及网络传输,可以大大减少性能开销。
八:使用 map-side 预聚合的 shuffle 操作
 如果 Shuffle 算子是不可避免的,那么尽量使用 map-side 预聚合的算子。
 所谓的 map-side 预聚合,就是每个节点都是对相同的 key 进行一次聚合操作,进行 map-side 预聚合后,每个节点都只会留下一个相同的 key,其他节点在拉取相同的 key 的时候,就会大大缩减拉取的数据,从而达到缩减减小 IO 跟网络开销的目的。
 下面以 groupByKey 跟 reduceByKey 进行某个 key 的 sum 统计举例说明:
 groupByKey:

 reduceByKey:

 groupByKey 示例代码:

  SparkConf conf = new SparkConf();
  conf.setMaster("local[1]");
  conf.setAppName("test");
  JavaSparkContext jc = new JavaSparkContext(conf);
  List<Map<String,Integer>> list = new ArrayList<>();
  Map<String,Integer> map = new HashMap<>();
  map.put("yy",1);
  map.put("jj",1);
  map.put("ww",1);
  list.add(map);
  map = new HashMap<>();
  map.put("yy",1);
  list.add(map);
  map = new HashMap<>();
  map.put("yy",1);
  map.put("jj",1);
  list.add(map);
  map = new HashMap<>();
  map.put("yy",1);
  map.put("jj",2);
  list.add(map);
  map = new HashMap<>();
  map.put("jj",1);
  map.put("ww",2);
  list.add(map);
  map = new HashMap<>();
  map.put("ww",1);
  list.add(map);
  jc.parallelize(list)
	// 遍历所有的key
	.flatMap(x -> x.entrySet().iterator())
	// 组成K,V键值对
	.mapToPair(x -> new Tuple2<>(x.getKey(), x.getValue()))
    // groupByKey
	.groupByKey()
    // sum
	.mapValues(x->sum(x)).foreach(x-> System.out.println(x));

  // sum函数
  private static int sum(Iterable integers){
    int sum = 0;
    if(integers != null){
        Iterator iterator = integers.iterator();
	    while (iterator.hasNext()){
            sum += iterator.next();
		}
    }
    return sum;
  } 

 reduceByKey 示例代码:

  SparkConf conf = new SparkConf();
  conf.setMaster("local[1]");
  conf.setAppName("test");
  JavaSparkContext jc = new JavaSparkContext(conf);
  List<Map<String,Integer>> list = new ArrayList<>();
  Map<String,Integer> map = new HashMap<>();
  map.put("yy",1);
  map.put("jj",1);
  map.put("ww",1);
  list.add(map);
  map = new HashMap<>();
  map.put("yy",1);
  list.add(map);
  map = new HashMap<>();
  map.put("yy",1);
  map.put("jj",1);
  list.add(map);
  map = new HashMap<>();
  map.put("yy",1);
  map.put("jj",2);
  list.add(map);
  map = new HashMap<>();
  map.put("jj",1);
  map.put("ww",2);
  list.add(map);
  map = new HashMap<>();
  map.put("ww",1);
  list.add(map);
  jc.parallelize(list)
	// 遍历所有的key
	.flatMap(x -> x.entrySet().iterator())
	// 组成K,V键值对
	.mapToPair(x -> new Tuple2<>(x.getKey(), x.getValue()))
	// reduceByKey
	.reduceByKey((var1,var2)->var1+var2).foreach(x-> System.out.println(x));

 调优相关的官方资料:http://spark.apache.org/docs/latest/tuning.html

上一篇

  • Spark

    Spark 是 UC Berkeley AMP lab 所开源的类 Hadoop MapReduce 的通用并行框架。Spark 拥有 Hadoop MapReduce 所具有的优点;但不同于 MapReduce 的是 Job 中间输出结果可以保存在内存中,从而不再需要读写 HDFS,因此 Spark 能更好地适用于数据挖掘与机器学习等需要迭代的 MapReduce 的算法。

    74 引用 • 46 回帖 • 552 关注

相关帖子

欢迎来到这里!

我们正在构建一个小众社区,大家在这里相互信任,以平等 • 自由 • 奔放的价值观进行分享交流。最终,希望大家能够找到与自己志同道合的伙伴,共同成长。

注册 关于
请输入回帖内容 ...

推荐标签 标签

  • Quicker

    Quicker 您的指尖工具箱!操作更少,收获更多!

    32 引用 • 130 回帖 • 2 关注
  • BND

    BND(Baidu Netdisk Downloader)是一款图形界面的百度网盘不限速下载器,支持 Windows、Linux 和 Mac,详细介绍请看这里

    107 引用 • 1281 回帖 • 27 关注
  • AngularJS

    AngularJS 诞生于 2009 年,由 Misko Hevery 等人创建,后为 Google 所收购。是一款优秀的前端 JS 框架,已经被用于 Google 的多款产品当中。AngularJS 有着诸多特性,最为核心的是:MVC、模块化、自动化双向数据绑定、语义化标签、依赖注入等。2.0 版本后已经改名为 Angular。

    12 引用 • 50 回帖 • 474 关注
  • QQ

    1999 年 2 月腾讯正式推出“腾讯 QQ”,在线用户由 1999 年的 2 人(马化腾和张志东)到现在已经发展到上亿用户了,在线人数超过一亿,是目前使用最广泛的聊天软件之一。

    45 引用 • 557 回帖 • 67 关注
  • Pipe

    Pipe 是一款小而美的开源博客平台。Pipe 有着非常活跃的社区,可将文章作为帖子推送到社区,来自社区的回帖将作为博客评论进行联动(具体细节请浏览 B3log 构思 - 分布式社区网络)。

    这是一种全新的网络社区体验,让热爱记录和分享的你不再感到孤单!

    132 引用 • 1114 回帖 • 124 关注
  • 锤子科技

    锤子科技(Smartisan)成立于 2012 年 5 月,是一家制造移动互联网终端设备的公司,公司的使命是用完美主义的工匠精神,打造用户体验一流的数码消费类产品(智能手机为主),改善人们的生活质量。

    4 引用 • 31 回帖 • 4 关注
  • 国际化

    i18n(其来源是英文单词 internationalization 的首末字符 i 和 n,18 为中间的字符数)是“国际化”的简称。对程序来说,国际化是指在不修改代码的情况下,能根据不同语言及地区显示相应的界面。

    8 引用 • 26 回帖
  • Eclipse

    Eclipse 是一个开放源代码的、基于 Java 的可扩展开发平台。就其本身而言,它只是一个框架和一组服务,用于通过插件组件构建开发环境。

    75 引用 • 258 回帖 • 617 关注
  • Logseq

    Logseq 是一个隐私优先、开源的知识库工具。

    Logseq is a joyful, open-source outliner that works on top of local plain-text Markdown and Org-mode files. Use it to write, organize and share your thoughts, keep your to-do list, and build your own digital garden.

    6 引用 • 63 回帖
  • OpenStack

    OpenStack 是一个云操作系统,通过数据中心可控制大型的计算、存储、网络等资源池。所有的管理通过前端界面管理员就可以完成,同样也可以通过 Web 接口让最终用户部署资源。

    10 引用 • 4 关注
  • 大数据

    大数据(big data)是指无法在一定时间范围内用常规软件工具进行捕捉、管理和处理的数据集合,是需要新处理模式才能具有更强的决策力、洞察发现力和流程优化能力的海量、高增长率和多样化的信息资产。

    93 引用 • 113 回帖
  • Chrome

    Chrome 又称 Google 浏览器,是一个由谷歌公司开发的网页浏览器。该浏览器是基于其他开源软件所编写,包括 WebKit,目标是提升稳定性、速度和安全性,并创造出简单且有效率的使用者界面。

    62 引用 • 289 回帖 • 1 关注
  • 星云链

    星云链是一个开源公链,业内简单的将其称为区块链上的谷歌。其实它不仅仅是区块链搜索引擎,一个公链的所有功能,它基本都有,比如你可以用它来开发部署你的去中心化的 APP,你可以在上面编写智能合约,发送交易等等。3 分钟快速接入星云链 (NAS) 测试网

    3 引用 • 16 回帖
  • 前端

    前端技术一般分为前端设计和前端开发,前端设计可以理解为网站的视觉设计,前端开发则是网站的前台代码实现,包括 HTML、CSS 以及 JavaScript 等。

    247 引用 • 1348 回帖
  • 小薇

    小薇是一个用 Java 写的 QQ 聊天机器人 Web 服务,可以用于社群互动。

    由于 Smart QQ 从 2019 年 1 月 1 日起停止服务,所以该项目也已经停止维护了!

    34 引用 • 467 回帖 • 742 关注
  • Kotlin

    Kotlin 是一种在 Java 虚拟机上运行的静态类型编程语言,由 JetBrains 设计开发并开源。Kotlin 可以编译成 Java 字节码,也可以编译成 JavaScript,方便在没有 JVM 的设备上运行。在 Google I/O 2017 中,Google 宣布 Kotlin 成为 Android 官方开发语言。

    19 引用 • 33 回帖 • 63 关注
  • SEO

    发布对别人有帮助的原创内容是最好的 SEO 方式。

    35 引用 • 200 回帖 • 22 关注
  • 服务器

    服务器,也称伺服器,是提供计算服务的设备。由于服务器需要响应服务请求,并进行处理,因此一般来说服务器应具备承担服务并且保障服务的能力。

    125 引用 • 588 回帖
  • abitmean

    有点意思就行了

    29 关注
  • VirtualBox

    VirtualBox 是一款开源虚拟机软件,最早由德国 Innotek 公司开发,由 Sun Microsystems 公司出品的软件,使用 Qt 编写,在 Sun 被 Oracle 收购后正式更名成 Oracle VM VirtualBox。

    10 引用 • 2 回帖 • 6 关注
  • RabbitMQ

    RabbitMQ 是一个开源的 AMQP 实现,服务器端用 Erlang 语言编写,支持多种语言客户端,如:Python、Ruby、.NET、Java、C、PHP、ActionScript 等。用于在分布式系统中存储转发消息,在易用性、扩展性、高可用性等方面表现不俗。

    49 引用 • 60 回帖 • 362 关注
  • CloudFoundry

    Cloud Foundry 是 VMware 推出的业界第一个开源 PaaS 云平台,它支持多种框架、语言、运行时环境、云平台及应用服务,使开发人员能够在几秒钟内进行应用程序的部署和扩展,无需担心任何基础架构的问题。

    5 引用 • 18 回帖 • 167 关注
  • 支付宝

    支付宝是全球领先的独立第三方支付平台,致力于为广大用户提供安全快速的电子支付/网上支付/安全支付/手机支付体验,及转账收款/水电煤缴费/信用卡还款/AA 收款等生活服务应用。

    29 引用 • 347 回帖
  • etcd

    etcd 是一个分布式、高可用的 key-value 数据存储,专门用于在分布式系统中保存关键数据。

    5 引用 • 26 回帖 • 528 关注
  • flomo

    flomo 是新一代 「卡片笔记」 ,专注在碎片化时代,促进你的记录,帮你积累更多知识资产。

    5 引用 • 107 回帖
  • C

    C 语言是一门通用计算机编程语言,应用广泛。C 语言的设计目标是提供一种能以简易的方式编译、处理低级存储器、产生少量的机器码以及不需要任何运行环境支持便能运行的编程语言。

    85 引用 • 165 回帖 • 1 关注
  • Openfire

    Openfire 是开源的、基于可拓展通讯和表示协议 (XMPP)、采用 Java 编程语言开发的实时协作服务器。Openfire 的效率很高,单台服务器可支持上万并发用户。

    6 引用 • 7 回帖 • 94 关注