Spark 的见解 & 优化 (四)

本贴最后更新于 2401 天前,其中的信息可能已经物是人非

优化

 这里调优主要针对于开发相关的调优见解,参数相关的调优在次不做赘述。

一:广播频繁使用的变量
在 spark 运算中如果有利用 master 表的数据(只读)且数量较大的场景,那么这种场景利用广播该变量来提升性能。

不使用广播变量的场景:
 那么 spark 就会把该数据以网络传输给各个 task,然后每个 task 都有该数据的副本,task 越多,对该数据副本的网络传输也越多,相对应的会加大网络的损耗。副本过多的话也会加大内存的损耗。
使用广播变量的场景:
 那么 spark 就会把该数据的副本以广播的形式缓存到各个节点上,每个节点的所有 task 执行运算时共享该副本,因为每个节点只驻留一份副本,所有内存开销比不用广播变量的要小许多,而且 spark 使用有效的广播算法来分配广播变量,以降低通信成本。

SparkConf conf = new SparkConf(); conf.setMaster("local[1]"); conf.setAppName("test"); JavaSparkContext jc = new JavaSparkContext(conf); Set masters = new HashSet<>(); masters.add(1); masters.add(2); masters.add(3); List list = new ArrayList<>(); list.add(1); list.add(2); list.add(3); list.add(4); // 广播变量 Broadcast<Set<Integer>> broadcastVar = jc.broadcast(masters); jc.parallelize(list).filter(x->broadcastVar.value().contains(x)?false:true).foreach(x-> System.out.println(x)); 结果: 4

二:mapPartitions 替代 map,foreachPartition 替代 foreach
 不带 partitions 是对应的函数进行转换/遍历所有数据,带 partitions 是对应的函数进行转换/遍历一个分区的数据,优缺点主要有以下几点:
 1)带 partitions 的增加了并行度,对性能有一定的提升
 2)如果要遍历数据往数据库插入数据,每一条数据都执行(创建连接-> 插入数据-> 释放连接)这样的流程的话,性能是十分低下的,而一个分区的数据只使用一个连接,然后批量插入这个分区的数据,最后再释放连接,这种性能上的提升是显著的

SparkConf conf = new SparkConf(); conf.setMaster("local[1]"); conf.setAppName("test"); JavaSparkContext jc = new JavaSparkContext(conf); List<String> list = new ArrayList<>(); list.add("sql1"); list.add("sql2"); list.add("sql3"); list.add("sql4"); jc.parallelize(list).foreachPartition(x->{ // 获取连接 Connection connection = getConn(); x.forEachRemaining(x1->{ connection.prepareStatement(x1); }); // 释放连接 connection.close(); });

三:先使用 map 跟 filter 操作对数据结构进行优化跟缩减
 1)数据源最终都会变成一个广范的且有 schema 的对象,如果是计数/去重相关的操作,如果值是无关紧要的,就缩减为 0/1 等,减少内存占用。
 2)做具体的业务之前先看一下是不是所有字段/属性都是必须的,如果有 10 个字段,你只取其中的 3 个字段的话,就尽量把多余的字段/属性给过滤掉。
 3)上面 2 步在层次嵌套较深且数据量大的运算中有很大提升,因为不但减少了内存占用,Shuffle 传输的性能也有提高

SparkConf conf = new SparkConf(); conf.setMaster("local[1]"); conf.setAppName("test"); JavaSparkContext jc = new JavaSparkContext(conf); List<Map<String,Object>> list = new ArrayList<>(); Map<String,Object> item = new HashMap<>(); item.put("a","a1"); item.put("b","b1"); item.put("c","c1"); item.put("d","d1"); item.put("e","e1"); list.add(item); item = new HashMap<>(); item.put("a","a11"); item.put("b","b11"); item.put("c","c11"); item.put("d","d11"); item.put("e","e11"); item.put("f","e11"); list.add(item); item = new HashMap<>(); item.put("b","b21"); item.put("d","d21"); item.put("e","e21"); list.add(item); // 统计key=a出现的个数 jc.parallelize(list) // 把map的每一条键值对变成多条记录 .flatMap(x->x.entrySet().iterator()) // 过滤a以外的key .filter(x->"a".equals(x.getKey())) // 因为统计key,value从string->int .mapToPair(x->new Tuple2<>(x.getKey(),1)) // 统计 .reduceByKey((var1,var2)->var1+var2) // 遍历 .foreachPartition(x-> x.forEachRemaining(x1->System.out.println(x1))); 结果: (a,2)

四:使用 filter 后进行 coalesce
 如果对 RDD 使用 filter 算子过渡掉较多的数据后,建议使用 coalesce 算子对分区进行缩减操作,使用 coalesce 缩减分区不会产生 Shuffle 操作,适用于数据量较少但分区数较多的场景

SparkConf conf = new SparkConf(); conf.setMaster("local[1]"); conf.setAppName("test"); JavaSparkContext jc = new JavaSparkContext(conf); List<Map<String,Object>> list = new ArrayList<>(); Map<String,Object> item = new HashMap<>(); item.put("a","a1"); item.put("b","b1"); item.put("c","c1"); item.put("d","d1"); item.put("e","e1"); list.add(item); item = new HashMap<>(); item.put("a","a11"); item.put("b","b11"); item.put("c","c11"); item.put("d","d11"); item.put("e","e11"); item.put("f","e11"); list.add(item); item = new HashMap<>(); item.put("b","b21"); item.put("d","d21"); item.put("e","e21"); list.add(item); // 统计key为a的出现的个数 JavaRDD, Object>> filter = jc.parallelize(list, 4) // 把map的每一条键值对变成多条记录 .flatMap(x -> x.entrySet().iterator()) // 过滤a以外的key .filter(x -> "a".equals(x.getKey())); System.out.println("coalesce前分区数:"+filter.partitions().size()); // coalesce JavaRDD, Object>> coalesce = filter.coalesce(1); System.out.println("coalesce后分区数:"+coalesce.partitions().size()); 结果: coalesce前分区数:4 coalesce后分区数:1

五:使用 Kryo 进行序列化/反序列化
 spark2.0.0 之前,默认使用的是 java 自带的序列化机制,同时 spark 也支持高性能的 kryo 序列化机制(官方说明比 java 的性能要快 10 倍),但是如果自定义的对象需要在 kryo 进行提前注册才能获得最佳性能。从 spark2.0.0 开始,spark 已经对 kryo 的 github 在这里,大家有兴趣可以自行研究一下。

// student类 public class Student { private String name; private int age; private String sex; public Student(String name, int age, String sex) { this.name = name; this.age = age; this.sex = sex; } public String getName() { return name; } public void setName(String name) { this.name = name; } public int getAge() { return age; } public void setAge(int age) { this.age = age; } public String getSex() { return sex; } public void setSex(String sex) { this.sex = sex; } } // spark示例代码 SparkConf conf = new SparkConf(); conf.setMaster("local[1]"); conf.setAppName("test"); conf.set("spark.serializer", "org.apache.spark.serializer.KryoSerializer"); // conf.registerKryoClasses(new Class[]{Student.class}); JavaSparkContext jc = new JavaSparkContext(conf); List<Student> list = new ArrayList<>(); for(int i=0;i<1000000;i++){ list.add(new Student("name_"+i,i,"male")); } JavaRDD students = jc.parallelize(list); // 持久化 students.persist(StorageLevel.MEMORY_ONLY_SER()); System.out.println(students.count()); 结果: 使用kryo序列化策略且没有提前注册自定义类的情况下: INFO MemoryStore: Block rdd_0_0 stored as bytes in memory (estimated size 28.5 MB, free 883.8 MB) 使用kryo序列化策略且提前注册自定义类的情况下: INFO MemoryStore: Block rdd_0_0 stored as bytes in memory (estimated size 20.9 MB, free 891.4 MB)

六:对多次使用的 RDD 进行持久化
 spark 多次复用 RDD 的原理:每当你对这个 RDD 进行算子操作的时候,spark 都会从源头把这个 RDD 再算出来,然后再对这个 RDD 再进行算子操作,这种情况下,不对这个复用的 RDD 进行持久化操作的话,性能就很差。如果把这个 RDD 持久化到磁盘或者内存后,再针对于这个 RDD 进行算子操作的时候,直接从磁盘或者内存中提取这个 RDD,因为不用再从源头重新计算,这样效率就高了许多。五的示例已经有了持久化的示例,故不再写相关的示例代码。spark 对于持久化的策略有许多种,详细的请参考 org.apache.spark.storage.StorageLevel 这个类
七:尽量避免 Shuffle 算子
 前一篇已经对 Shffle 操作,以及宽窄依赖做了比较详细的说明,所以尽量用非 Shuffle 的算子 + 广播变量等形式来完成业务,这样就可以尽量避免大规模的 IO 操作以及网络传输,可以大大减少性能开销。
八:使用 map-side 预聚合的 shuffle 操作
 如果 Shuffle 算子是不可避免的,那么尽量使用 map-side 预聚合的算子。
 所谓的 map-side 预聚合,就是每个节点都是对相同的 key 进行一次聚合操作,进行 map-side 预聚合后,每个节点都只会留下一个相同的 key,其他节点在拉取相同的 key 的时候,就会大大缩减拉取的数据,从而达到缩减减小 IO 跟网络开销的目的。
 下面以 groupByKey 跟 reduceByKey 进行某个 key 的 sum 统计举例说明:
 groupByKey:

 reduceByKey:

 groupByKey 示例代码:

SparkConf conf = new SparkConf(); conf.setMaster("local[1]"); conf.setAppName("test"); JavaSparkContext jc = new JavaSparkContext(conf); List<Map<String,Integer>> list = new ArrayList<>(); Map<String,Integer> map = new HashMap<>(); map.put("yy",1); map.put("jj",1); map.put("ww",1); list.add(map); map = new HashMap<>(); map.put("yy",1); list.add(map); map = new HashMap<>(); map.put("yy",1); map.put("jj",1); list.add(map); map = new HashMap<>(); map.put("yy",1); map.put("jj",2); list.add(map); map = new HashMap<>(); map.put("jj",1); map.put("ww",2); list.add(map); map = new HashMap<>(); map.put("ww",1); list.add(map); jc.parallelize(list) // 遍历所有的key .flatMap(x -> x.entrySet().iterator()) // 组成K,V键值对 .mapToPair(x -> new Tuple2<>(x.getKey(), x.getValue())) // groupByKey .groupByKey() // sum .mapValues(x->sum(x)).foreach(x-> System.out.println(x)); // sum函数 private static int sum(Iterable integers){ int sum = 0; if(integers != null){ Iterator iterator = integers.iterator(); while (iterator.hasNext()){ sum += iterator.next(); } } return sum; }

 reduceByKey 示例代码:

SparkConf conf = new SparkConf(); conf.setMaster("local[1]"); conf.setAppName("test"); JavaSparkContext jc = new JavaSparkContext(conf); List<Map<String,Integer>> list = new ArrayList<>(); Map<String,Integer> map = new HashMap<>(); map.put("yy",1); map.put("jj",1); map.put("ww",1); list.add(map); map = new HashMap<>(); map.put("yy",1); list.add(map); map = new HashMap<>(); map.put("yy",1); map.put("jj",1); list.add(map); map = new HashMap<>(); map.put("yy",1); map.put("jj",2); list.add(map); map = new HashMap<>(); map.put("jj",1); map.put("ww",2); list.add(map); map = new HashMap<>(); map.put("ww",1); list.add(map); jc.parallelize(list) // 遍历所有的key .flatMap(x -> x.entrySet().iterator()) // 组成K,V键值对 .mapToPair(x -> new Tuple2<>(x.getKey(), x.getValue())) // reduceByKey .reduceByKey((var1,var2)->var1+var2).foreach(x-> System.out.println(x));

 调优相关的官方资料:http://spark.apache.org/docs/latest/tuning.html

上一篇

  • Spark

    Spark 是 UC Berkeley AMP lab 所开源的类 Hadoop MapReduce 的通用并行框架。Spark 拥有 Hadoop MapReduce 所具有的优点;但不同于 MapReduce 的是 Job 中间输出结果可以保存在内存中,从而不再需要读写 HDFS,因此 Spark 能更好地适用于数据挖掘与机器学习等需要迭代的 MapReduce 的算法。

    74 引用 • 46 回帖 • 567 关注

相关帖子

欢迎来到这里!

我们正在构建一个小众社区,大家在这里相互信任,以平等 • 自由 • 奔放的价值观进行分享交流。最终,希望大家能够找到与自己志同道合的伙伴,共同成长。

注册 关于
请输入回帖内容 ...

推荐标签 标签

  • 小说

    小说是以刻画人物形象为中心,通过完整的故事情节和环境描写来反映社会生活的文学体裁。

    32 引用 • 108 回帖
  • 浅吟主题

    Jeffrey Chen 制作的思源笔记主题,项目仓库:https://github.com/TCOTC/Whisper

    2 引用 • 32 回帖 • 1 关注
  • 链滴

    链滴是一个记录生活的地方。

    记录生活,连接点滴

    189 引用 • 3937 回帖
  • DevOps

    DevOps(Development 和 Operations 的组合词)是一组过程、方法与系统的统称,用于促进开发(应用程序/软件工程)、技术运营和质量保障(QA)部门之间的沟通、协作与整合。

    59 引用 • 25 回帖
  • 智能合约

    智能合约(Smart contract)是一种旨在以信息化方式传播、验证或执行合同的计算机协议。智能合约允许在没有第三方的情况下进行可信交易,这些交易可追踪且不可逆转。智能合约概念于 1994 年由 Nick Szabo 首次提出。

    1 引用 • 11 回帖 • 1 关注
  • CSS

    CSS(Cascading Style Sheet)“层叠样式表”是用于控制网页样式并允许将样式信息与网页内容分离的一种标记性语言。

    199 引用 • 543 回帖 • 4 关注
  • Hexo

    Hexo 是一款快速、简洁且高效的博客框架,使用 Node.js 编写。

    22 引用 • 148 回帖 • 16 关注
  • Excel
    31 引用 • 28 回帖
  • 脑图

    脑图又叫思维导图,是表达发散性思维的有效图形思维工具 ,它简单却又很有效,是一种实用性的思维工具。

    32 引用 • 100 回帖
  • sts
    2 引用 • 2 回帖 • 249 关注
  • 书籍

    宋真宗赵恒曾经说过:“书中自有黄金屋,书中自有颜如玉。”

    84 引用 • 414 回帖 • 2 关注
  • Access
    1 引用 • 3 回帖 • 4 关注
  • Kafka

    Kafka 是一种高吞吐量的分布式发布订阅消息系统,它可以处理消费者规模的网站中的所有动作流数据。 这种动作(网页浏览,搜索和其他用户的行动)是现代系统中许多功能的基础。 这些数据通常是由于吞吐量的要求而通过处理日志和日志聚合来解决。

    36 引用 • 35 回帖
  • 强迫症

    强迫症(OCD)属于焦虑障碍的一种类型,是一组以强迫思维和强迫行为为主要临床表现的神经精神疾病,其特点为有意识的强迫和反强迫并存,一些毫无意义、甚至违背自己意愿的想法或冲动反反复复侵入患者的日常生活。

    15 引用 • 161 回帖 • 2 关注
  • VirtualBox

    VirtualBox 是一款开源虚拟机软件,最早由德国 Innotek 公司开发,由 Sun Microsystems 公司出品的软件,使用 Qt 编写,在 Sun 被 Oracle 收购后正式更名成 Oracle VM VirtualBox。

    10 引用 • 2 回帖 • 14 关注
  • AWS
    11 引用 • 28 回帖 • 6 关注
  • 架构

    我们平时所说的“架构”主要是指软件架构,这是有关软件整体结构与组件的抽象描述,用于指导软件系统各个方面的设计。另外还有“业务架构”、“网络架构”、“硬件架构”等细分领域。

    142 引用 • 442 回帖 • 1 关注
  • GraphQL

    GraphQL 是一个用于 API 的查询语言,是一个使用基于类型系统来执行查询的服务端运行时(类型系统由你的数据定义)。GraphQL 并没有和任何特定数据库或者存储引擎绑定,而是依靠你现有的代码和数据支撑。

    4 引用 • 3 回帖 • 8 关注
  • 阿里巴巴

    阿里巴巴网络技术有限公司(简称:阿里巴巴集团)是以曾担任英语教师的马云为首的 18 人,于 1999 年在中国杭州创立,他们相信互联网能够创造公平的竞争环境,让小企业通过创新与科技扩展业务,并在参与国内或全球市场竞争时处于更有利的位置。

    43 引用 • 221 回帖 • 40 关注
  • RabbitMQ

    RabbitMQ 是一个开源的 AMQP 实现,服务器端用 Erlang 语言编写,支持多种语言客户端,如:Python、Ruby、.NET、Java、C、PHP、ActionScript 等。用于在分布式系统中存储转发消息,在易用性、扩展性、高可用性等方面表现不俗。

    49 引用 • 60 回帖 • 350 关注
  • 资讯

    资讯是用户因为及时地获得它并利用它而能够在相对短的时间内给自己带来价值的信息,资讯有时效性和地域性。

    56 引用 • 85 回帖
  • 开源

    Open Source, Open Mind, Open Sight, Open Future!

    415 引用 • 3601 回帖
  • B3log

    B3log 是一个开源组织,名字来源于“Bulletin Board Blog”缩写,目标是将独立博客与论坛结合,形成一种新的网络社区体验,详细请看 B3log 构思。目前 B3log 已经开源了多款产品:SymSoloVditor思源笔记

    1062 引用 • 3455 回帖 • 140 关注
  • 博客

    记录并分享人生的经历。

    273 引用 • 2389 回帖
  • 互联网

    互联网(Internet),又称网际网络,或音译因特网、英特网。互联网始于 1969 年美国的阿帕网,是网络与网络之间所串连成的庞大网络,这些网络以一组通用的协议相连,形成逻辑上的单一巨大国际网络。

    98 引用 • 367 回帖
  • 设计模式

    设计模式(Design pattern)代表了最佳的实践,通常被有经验的面向对象的软件开发人员所采用。设计模式是软件开发人员在软件开发过程中面临的一般问题的解决方案。这些解决方案是众多软件开发人员经过相当长的一段时间的试验和错误总结出来的。

    201 引用 • 120 回帖
  • 酷鸟浏览器

    安全 · 稳定 · 快速
    为跨境从业人员提供专业的跨境浏览器

    3 引用 • 59 回帖 • 60 关注