Spark的lazy特性有什么意义呢

马克-to-win @ 马克java社区:Spark通过lazy特性有什么意义呢? Spark通过lazy特性,可以进行底层的spark应用执行的优化。在生活中,就像三思而后行。谋定而后动。马克- to-win:马克 java社区:防盗版实名手机尾号: 73203。
马克-to-win @ 马克java社区:
package com
import org.apache.spark.rdd.RDD
import org.apache.spark.SparkConf
import org.apache.spark.SparkContext

object TestRDD {
  def main(args: Array[String]): Unit = {
    val conf = new SparkConf().setAppName("TestRDD").setMaster("local")
    val sc = new SparkContext(conf)

    val rdd1 = sc.makeRDD(List(1, 4, 3, 7, 5))
    val rdd1_1 = rdd1.map { y => y * y }
    val aList = rdd1_1.collect()
    println("map 用法  is " + aList.mkString(","))

    val rdd2 = sc.makeRDD(Array(1, 4, 3, 7, 5))
    val rdd2_1 = rdd2.filter { x => x < 5 }
    println("filter 用法 " + rdd2_1.collect().mkString(","))