Spark 的 stage 是如何划分的? Johngo学长 1年前 Spark 150 stage的划分依据就是看是否产生了shuflle(即宽依赖),遇到一个shuffle操作就划分为前后两个stage。 回复 共1条回复 我来回复 迷失技术de小猪 稍等伙伴们,思考简介中~ 评论 stage的划分依据就是看是否产生了shuflle(即宽依赖),遇到一个shuffle操作就划分为前后两个stage。 赞同 1个月前 0条评论 请 登录 或者 注册 后回复。 相关问题 RDD 常见问题集合 1个月前 1 159 Spark 的 shuffle 介绍? 1个月前 1 104 Spark中的算子都有哪些? 1个月前 1 144 分析一下一段 spark 代码中哪些部分在 Driver 端执行,哪些部分在Worker端执行? 1个月前 1 147 Spark 有哪几种 join? 1个月前 1 232 spark的内存管理机制是什么样的? 1个月前 1 101 Spark on yarn 模式下的 Cluster 模式和 Client 模式有什么区别? 1个月前 1 124 spark2.0 为什么放弃了 akka 而用 netty? 1个月前 2 127 讲一下 spark 的运行架构? 1个月前 1 139 Spark中的广播变量 1个月前 1 112 Spark 的 partitioner 都有哪些? 1个月前 1 293 讲一下spark的几种部署方式? 1个月前 1 143 Spark 的各种 HA:master/worker/executor 的 HA? 1个月前 1 115 一个spark程序的执行流程是什么样的? 1个月前 1 313