Spark分布式安装
Spark安装注意:需要和本机的hadoop版本对应
前往spark选择自己相对应的版本下载之后进行解压
命令:tar –zxf spark-2.4.0-bin-hadoop2.6.tgz –C /usr/local
配置spark分布式,修改两个主要配置文件 spark-env.sh.template slaves.template slaves 留存备份
命令: cp spark-env.sh.template spark-env.sh
命令:cp slaves.template slaves
配置spark-env.sh
SPARK
export JAVA_HOME=/usr/local/jdk1.8.0_192
export SCALA_HOME=/usr/local/scala
export SPARK_MASTER_IP=master
export SPARK_WORKER_CORES=2
export SPARK_WORKER_MEMORY=1g
export HADOOP_CONF_DIR=/usr/local/hadoop/etc/hadoop
export SPARK_PID_DIR=/usr/local/hadoop/pids
export SPARK_DIST_CLASSPATH=$(/usr/local/hadoop/bin/hadoop classpath)
配置slaves
删除localhost 增加 node1 node2
将配置好的spark复制到子节点
命令:scp –r /usr/local/spark node1:/usr/local
scp –r /usr/local/spark node2:/usr/local
尝试启动spark
命令:/usr/local/spark/sbin/start-all.sh
进入spark-shell查看spark启动是否成功
启动正常
为spark配置环境变量
命令:vim /etc/profile
set SPARK_HOME
export SPARK_HOME=/usr/local/spark
export PATH=$PATH:$SPARK_HOME/bin:$SPARK_HOME/sbin
命令:source /etc/profile使配置生效
Original: https://www.cnblogs.com/shun57/p/10775056.html
Author: SHUN丶
Title: 写论文的第四天 Spark安装 使用sparkshell
原创文章受到原创版权保护。转载请注明出处:https://www.johngo689.com/564868/
转载文章受原作者版权保护。转载请注明原作者出处!