Spark持久化以及checkpoint原理分析(3)

/**
  * Changes the dependencies of this RDD from its original parents to a new RDD (`newRDD`)
  * created from the checkpoint file, and forget its old dependencies and partitions.
  */
  private[spark] def markCheckpointed(checkpointRDD: RDD[_]) {
    clearDependencies()
    partitions_ = null
    deps = null    // Forget the constructor argument for dependencies too
  }

在我们的应用程序中,在使用checkpoint的时候只需要进行两步简单的操作即可,使用SparkContext设置一个checkPoint文件目录,在需要checkpoint的RDD中调用doCheckpoint方法即可。

Linux公社的RSS地址:https://www.linuxidc.com/rssFeed.aspx

内容版权声明:除非注明,否则皆为本站原创文章。

转载注明出处:https://www.heiqu.com/50f75dcb6faeb6628e352c079a31dfe4.html