Spark idea 在域环境下 报 无效的Spark url的问题,解决方式

Spark idea 在域环境下 报  无效的Spark url的问题,解决方式

改为以下代码即可:

val conf = new SparkConf().setMaster("local[*]").setAppName("rdd").set("spark.driver.host","localhost")

Spark idea 在域环境下 报  无效的Spark url的问题,解决方式

Original: https://www.cnblogs.com/maohuidong/p/15976603.html
Author: 毛会懂
Title: Spark idea 在域环境下 报 无效的Spark url的问题,解决方式

原创文章受到原创版权保护。转载请注明出处:https://www.johngo689.com/8882/

转载文章受原作者版权保护。转载请注明原作者出处!

(0)

大家都在看

免费咨询
免费咨询
扫码关注
扫码关注
联系站长

站长Johngo!

大数据和算法重度研究者!

持续产出大数据、算法、LeetCode干货,以及业界好资源!

2022012703491714

微信来撩,免费咨询:xiaozhu_tec

分享本页
返回顶部