12 | 我们并没有觉得MapReduce速度慢,直到Spark出现

Hadoop MapReduce虽然已经可以满足大数据的应用场景,但是其执行速度和编程复杂度并不让人们满意。于是UC Berkeley的AMP Lab推出的Spark应运而生,Spark拥有更快的执行速度和更友好的编程接口,在推出后短短两年就迅速抢占MapReduce的市场份额,成为主流的大数据计算框架。

读到这里请你先停一下,请给这段看似“没毛病”的引子找找问题。

不知道你意识到没有,我在这段开头说的,“Hadoop MapReduce虽然已经可以满足大数据的应用场景,但是其执行速度和编程复杂度并不让人们满意”,这句话其实是错误的。这样说好像可以让你更加清晰地看到事物发展的因果关系,同时也可以暗示别人自己有洞察事物发展规律的能力。然而,这种靠事后分析的因果规律常常是错误的,往往把结果当作了原因

事实上,在Spark出现之前,我们并没有对MapReduce的执行速度不满,我们觉得大数据嘛、分布式计算嘛,这样的速度也还可以啦。至于编程复杂度也是一样,一方面Hive、Mahout这些工具将常用的MapReduce编程封装起来了;另一方面,MapReduce已经将分布式编程极大地简化了,当时人们并没有太多不满。

真实的情况是,人们在Spark出现之后,才开始对MapReduce不满。原来大数据计算速度可以快这么多,编程也可以更简单。而且Spark支持Yarn和HDFS,公司迁移到Spark上的成本很小,于是很快,越来越多的公司用Spark代替MapReduce。也就是说,因为有了Spark,才对MapReduce不满;而不是对MapReduce不满,所以诞生了Spark。真实的因果关系是相反的。

这里有一条关于问题的定律分享给你:我们常常意识不到问题的存在,直到有人解决了这些问题。

当你去询问人们有什么问题需要解决,有什么需求需要被满足的时候,他们往往自己也不知道自己想要什么,常常言不由衷。但是如果你真正解决了他们的问题,他们就会恍然大悟:啊,这才是我真正想要的,以前那些统统都是“垃圾”,我早就想要这样的东西(功能)了。

所以顶尖的产品大师(问题解决专家),并不会拿着个小本本四处去做需求调研,问人们想要什么。而是在旁边默默观察人们是如何使用产品(解决问题)的,然后思考更好的产品体验(解决问题的办法)是什么。最后当他拿出新的产品设计(解决方案)的时候,人们就会视他为知己:你最懂我的需求(我最懂你的设计)。

乔布斯是这样的大师,Spark的作者马铁也是这样的专家。

说了那么多,我们回到Spark。Spark和MapReduce相比,有更快的执行速度。下图是Spark和MapReduce进行逻辑回归机器学习的性能比较,Spark比MapReduce快100多倍。

除了速度更快,Spark和MapReduce相比,还有更简单易用的编程模型。使用Scala语言在Spark上编写WordCount程序,主要代码只需要三行。

val textFile = sc.textFile("hdfs://...")
val counts = textFile.flatMap(line => line.split(" "))
                 .map(word => (word, 1))
                 .reduceByKey(_ + _)
counts.saveAsTextFile("hdfs://...")

不熟悉Scala语言没关系,我来解释一下上面的代码。

第1行代码:根据HDFS路径生成一个输入数据RDD。

第2行代码:在输入数据RDD上执行3个操作,得到一个新的RDD。

  • 将输入数据的每一行文本用空格拆分成单词。

  • 将每个单词进行转换,word => (word, 1),生成<Key, Value>的结构。

  • 相同的Key进行统计,统计方式是对Value求和,(_ + _)

第3行代码:将这个RDD保存到HDFS。

RDD是Spark的核心概念,是弹性数据集(Resilient Distributed Datasets)的缩写。RDD既是Spark面向开发者的编程模型,又是Spark自身架构的核心元素。

我们先来看看作为Spark编程模型的RDD。我们知道,大数据计算就是在大规模的数据集上进行一系列的数据计算处理。MapReduce针对输入数据,将计算过程分为两个阶段,一个Map阶段,一个Reduce阶段,可以理解成是面向过程的大数据计算。我们在用MapReduce编程的时候,思考的是,如何将计算逻辑用Map和Reduce两个阶段实现,map和reduce函数的输入和输出是什么,这也是我们在学习MapReduce编程的时候一再强调的。

而Spark则直接针对数据进行编程,将大规模数据集合抽象成一个RDD对象,然后在这个RDD上进行各种计算处理,得到一个新的RDD,继续计算处理,直到得到最后的结果数据。所以Spark可以理解成是面向对象的大数据计算。我们在进行Spark编程的时候,思考的是一个RDD对象需要经过什么样的操作,转换成另一个RDD对象,思考的重心和落脚点都在RDD上。

所以在上面WordCount的代码示例里,第2行代码实际上进行了3次RDD转换,每次转换都得到一个新的RDD,因为新的RDD可以继续调用RDD的转换函数,所以连续写成一行代码。事实上,可以分成3行。

val rdd1 = textFile.flatMap(line => line.split(" "))
val rdd2 = rdd1.map(word => (word, 1))
val rdd3 = rdd2.reduceByKey(_ + _)

RDD上定义的函数分两种,一种是转换(transformation)函数,这种函数的返回值还是RDD;另一种是执行(action)函数,这种函数不再返回RDD。

RDD定义了很多转换操作函数,比如有计算map(func)、过滤filter(func)、合并数据集union(otherDataset)、根据Key聚合reduceByKey(func, [numPartitions])、连接数据集join(otherDataset, [numPartitions])、分组groupByKey([numPartitions])等十几个函数。

我们再来看看作为Spark架构核心元素的RDD。跟MapReduce一样,Spark也是对大数据进行分片计算,Spark分布式计算的数据分片、任务调度都是以RDD为单位展开的,每个RDD分片都会分配到一个执行进程去处理。

RDD上的转换操作又分成两种,一种转换操作产生的RDD不会出现新的分片,比如map、filter等,也就是说一个RDD数据分片,经过map或者filter转换操作后,结果还在当前分片。就像你用map函数对每个数据加1,得到的还是这样一组数据,只是值不同。实际上,Spark并不是按照代码写的操作顺序去生成RDD,比如rdd2 = rdd1.map(func)这样的代码并不会在物理上生成一个新的RDD。物理上,Spark只有在产生新的RDD分片时候,才会真的生成一个RDD,Spark的这种特性也被称作惰性计算

另一种转换操作产生的RDD则会产生新的分片,比如reduceByKey,来自不同分片的相同Key必须聚合在一起进行操作,这样就会产生新的RDD分片。实际执行过程中,是否会产生新的RDD分片,并不是根据转换函数名就能判断出来的,具体我们下一期再讨论。

总之,你需要记住,Spark应用程序代码中的RDD和Spark执行过程中生成的物理RDD不是一一对应的,RDD在Spark里面是一个非常灵活的概念,同时又非常重要,需要认真理解。

当然Spark也有自己的生态体系,以Spark为基础,有支持SQL语句的Spark SQL,有支持流计算的Spark Streaming,有支持机器学习的MLlib,还有支持图计算的GraphX。利用这些产品,Spark技术栈支撑起大数据分析、大数据机器学习等各种大数据应用场景。

我前面提到,顶尖的产品设计大师和问题解决专家,不会去询问人们想要什么,而是分析和观察人们的做事方式,从而思考到更好的产品设计和问题解决方案。

但是这种技巧需要深邃的观察力和洞察力,如果没有深度的思考,做出的东西就会沦为异想天开和自以为是。要知道大众提出的需求虽然也无法触及问题的核心,但是好歹是有共识的,大家都能接受,按这种需求做出的东西虽然平庸,但是不至于令人厌恶。

而缺乏洞见的自以为是则会违反常识,让其他人本能产生排斥感,进而产生对立情绪。这种情绪之下,设计没有了进一步改进的基础,最后往往成为悲剧。这两年在所谓互联网思维的鼓吹下,一些缺乏专业技能的人,天马行空创造需求,受到质疑后公开批评用户,也是让人倍感惊诧。

我们在自己的工作中,作为一个不是顶尖大师的产品经理或工程师,如何做到既不自以为是,又能逐渐摆脱平庸,进而慢慢向大师的方向靠近呢?

有个技巧可以在工作中慢慢练习:不要直接提出你的问题和方案,不要直接说“你的需求是什么?”“我这里有个方案你看一下”。

直向曲中求,对于复杂的问题,越是直截了当越是得不到答案。迂回曲折地提出问题,一起思考问题背后的规律,才能逐渐发现问题的本质。通过这种方式,既能达成共识,不会有违常识,又可能产生洞见,使产品和方案呈现闪光点。

  • 你觉得前一个版本最有意思(最有价值)的功能是什么?

  • 你觉得我们这个版本应该优先关注哪个方面?

  • 你觉得为什么有些用户在下单以后没有支付?

思考题

你在工作、生活中通过提问发现问题背后的本质、现象背后的规律的例子有哪些?或者你观察到同事、朋友这样的例子有哪些?

欢迎你写下自己的思考或疑问,与我和其他同学一起讨论。

精选留言

  • 光脚的sun

    2018-11-24 10:16:20

    老师,现在都说flink更优秀,是不是我们直接跳过mr和spark直接学flink就行了?
    作者回复

    如果从MapReduce,spark,flink一路学过来,就会发现他们一脉相承的,如果理解了前面的,学习后面的很多地方甚至可以秒懂。

    登山的时候,老司机们都走Z字形,有时候最长的路是最容易的路。

    2018-11-25 23:09:58

  • 张闯

    2019-04-04 16:01:46

    理解了java8的lambda集合操作相比于传统集合操作的优势,就理解了spark相比于MapReduce的优势。
    第一步,将集合对象封装成流式对象。
    第二部,将函数传递给流式对象,在流式对象中执行内部循环。
    spark之所以快,就是将外部循环替换成了内部循环。
    传统的面向对象编程思想下,是将一个集合作为数据对象传递给一个方法,这个方法会return一个新的数据集,然后再把这个新的数据集作为入参传递给下一个方法。一趟接一趟,最终得到想要的数据处理结果。
    函数式编程思想是,先把集合封装成流,我把上面两个方法改写成无状态函数丢给这个集合流,对于集合内的每一项会依次执行这两个函数,最终这个集合就是一个新的集合。只循环一趟。
    原本需要做连续循环处理的次数越多,spark体现出的效率提升就越明显。

    lambda里面叫Stream,spark里面叫RDD。
  • 蚂蚁内推+v

    2018-11-25 11:55:06

    spark优势在于迭代式的内存运算,适合于做大数据分析,机器学习之类的,flink是流式计算框架,对于实时性任务也许更好,对于机器学习内任务,spark还是要好点
    作者回复

    👍🏻

    2018-11-25 19:48:19

  • 老男孩

    2018-11-25 09:38:36

    惭愧,我遇到的产品经理或者需求人员,基本上分为两类。一类经常说,这是客户的要求必须马上改,用客户来压制研发。一类比较以自我为中心,把自己的观点等同于用户的观点。常常想当然,结果用户一看不是我想要的。结果就是开发人员一次次的从坑里刚爬上来,又被产品一脚踹下去。有几次我真的无法克制,有一种想套麻袋然后一顿打的冲动。🤔非常赞同老师的观点,不管解决技术问题,还是设计产品都需要深刻的洞察力。想起前面您说的抽象是事物本质的洞察,遇到问题先猫在后面(虽然这种方式比较猥琐),冷静思考,暗中观察,从别人的方案或者错误中总结发现规律,然后顺势而为。
    作者回复

    👍🏻

    2018-11-25 19:50:10

  • 李二木

    2018-11-24 10:27:49

    比如学习机器学习,可能有很多人和我有同感,基本上是从入门到放弃。我自己也思考了原因。主要是恐惧心态,因为数学差,恐惧那些数学公式,而现在又崇尚几十天学会xxx,这会让人更加焦虑,更不能静下心学习。所以我认为解决问题主要根本也就是调整心态,想象学数学公式就像谈恋爱,从陌生到熟悉,再到走入婚姻的殿堂,不是一蹴而就,罗马不是一天建成的。所以公式一遍看不懂就看两遍,三遍,刻意练习,逃离舒适区。念念不忘,必有回响!
  • 无心乐乐

    2018-11-24 23:03:44

    第一次在极客写留言,感觉这个专栏的老师真的是用心良苦,不只是技术的教授,更是经验的传递。
    我们常常意识不到问题的存在,直到有人解决了这些问题。
    醍醐灌顶,受益良多!!
    作者回复

    谢谢鼓励,共勉~

    2018-11-25 22:59:55

  • Lambda

    2018-11-26 13:40:13

    看了一些留言,感觉大家还是”面向工具“学习,对层出不穷的”工具“,感到困惑。但是归根结底,这些工具本身还是计算机科学中很多基础概念的具象化,因此,”面向思想“学习应该是更好的一种做法。先对一种最原始的实现透彻的研究,理解其背后的思想和设计理念,然后再逐步学习后期更为先进的技术,这种学习路径应该更为有效。
    作者回复

    2018-11-27 15:50:58

  • weiruan85

    2019-07-31 10:14:11

    客户:我想租一匹马,你帮忙打听下一天多钱
    fey: 你租马时干什么用呢,犁地还是自己骑。
    客户:自己骑
    fey:那您骑马时准备干什么去呢
    客户: 我打算骑着买东西
    fey:打算买什么东西呢,去那买呢
    客户:我打算去兰州,买一碗牛肉面
    fey:为什么要求兰州买牛肉面呢
    客户:其他地方的不好吃
    fey:我认识一家兰州人开的牛肉面馆,味道很正宗,你去尝尝。
    客户: 确实好吃,再页不用去兰州了。

  • Dream.

    2018-11-26 09:00:02

    乔布斯还在世的时候就说过用户永远不知道他们想要的是什么,只有我们做出来了,他们才发现这就是他们想要的。
    这几年来一直将这句话当做自己需求分析时的座右铭。
    但一直不能领会其中的精髓,今天看完老师的专栏,有种拨开云雾的感觉。
    其实我们大多时候把结果当成了原因,并且缺乏了深度的思考以及洞察力。

  • 张小喵

    2019-12-03 21:00:24

    老师,我有一个疑问,本节里面的word count示例代码,map完了直接reduce,spark中一个map操作是针对的一个RDD分片,并不是针对的所有的分片(要统计文件的所有分片),我们reduce的操作不是应该处理所有的map数据结果汇集之后的RDD吗,为何只是一个map计算的结果?
    作者回复

    reduce是针对所有分片的。

    但是我们程序不需要关心有多少分片,程序只关注数据处理逻辑,分片以及和分布式有关的一切都由Spark框架自己完成。

    2019-12-04 09:11:18

  • hua168

    2018-11-24 21:46:49

    看了这篇文章,这个价格,值了!很值!!超值得!!!不到教我们技术还教我们思想!大神真的很负责👍…
    Spark可以代替mapReduce那我理解,是不是可以直接跳过mapReduce直接学习Spark?如果有一个东西比Spark更好,我也直接跳过Spark?
    我先把您的大数据学完,再补学java大数据编程,可以吧?
    我们在广州骗子太多,学会了观察他们是怎么骗的,总结骗子大部分都是利用贪心骗钱。这个算不😜?
  • 呆猫

    2018-11-26 08:20:05

    我要把这篇文章推荐给我们的产品经理去好好读读
  • 18601611625

    2019-09-18 21:20:57

    我最近也在研究Hadoop,但是有一个疑问不知道理解的对不对。Hive Hbase 都是处在HDFS上层的处理框架,而且Hbase和Hive功能基本重叠,为什么HBase不能取代Hive?
    作者回复

    HBase和Hive的功能定位及设计原理完全不同,无法互相取代,详细请阅读后面Hive和HBase篇章。

    2019-09-19 09:31:51

  • eldon

    2019-01-20 10:13:56

    学习java 很多人都上来就学各式框架,浮于表面,看到什么就学什么。没有好好学习基础。 我觉得无论学习什么,基础都是最关键的。只有用笨办法打牢基础才能以后快速迭代新知识!
    作者回复

    👍

    2019-01-21 08:59:09

  • hunterlodge

    2018-11-26 23:30:16

    工作中,一个新的方案出现的时候,如果它在某个或某些方面优于当前最好方案,我一定会去思考它的catch(另一面)是什么?比如新方案更快,我就大概会看看它的空间使用率、可维护度、全面度。一般都会发现一些问题。生活里也是如此,对表面上只有好处而无需付出或者代价很低的东西永远保持警惕。说白了,世上没有免费的午餐,一些都是权衡利弊的结果
  • 小辉辉

    2018-11-25 22:01:30

    好的提问艺术更能帮助我们深入理解和思考问题
  • Abyte

    2018-11-25 09:16:54

    大数据开发处理数据过程中难免被领导提一些需求,做各种各样的报表统计。我们第一手接触数据,如果我们能再有精力投入业务,是不是也能主动做出一些老板需要的报表统计,提升自己的价值
    作者回复

    👍🏻

    2018-11-25 19:50:21

  • 小千

    2018-11-26 10:45:13

    道理都是相通的,我之前做过摄影师,客户往往对想要的照片没有任何概念,当策划/拍摄/后期出好片子,客户才会说这样的片子是我想要的。反之,片子客户不满意的提问题,往往说不到点子上,比如说客户说表情不满意,其实可能是觉得照片显胖。
    作者回复

    👍🏻

    2018-11-26 17:26:22

  • LZP

    2020-07-02 23:41:56

    李老师真是富有智慧。掌握科技,亦具备身后的人文素养。好老师,向您学习.
  • 茅延安

    2019-10-04 11:16:11

    没有足够的实践和深度思考,你就不可能发现问题。
    而为了解决问题,为了让团队达成一致或者至少不对立,你需要一些委婉的铺垫,让大家进入你预设的情境,和你一同思考,不跳跃,不突兀,真正激发大家的主观意识。这样既能推动方案,也能产生一些新的洞见和闪光点。