虚拟机配置Hadoop

目录

前言
一、配置网络信息
1.修改配置信息
2.重启网络服务(所有结果显示ok即成功)
3.配置映射(修改主机名:vi /etc/sysconfig/network)
二、SSH配置免密登录
1.创建密钥对
三、安装和配置jdk(xshell操作)
1.传输通道:sftp ip(本地直接拖拽安装包即可上传虚拟机)
2.修改全局配置文件
四、Hadoop安装和部署(单节点伪分布)
上传CDH压缩文件到CentOS
解压CDH压缩文件
修改配置文件
五、zookeeper(分布式协调服务)的安装与运行
上传压缩文件到CentOS
解压文件
创建zoo.cfg,在…/Zookeeper/conf下有zoo_sample.cfg文件,复制并重命名为zoo.cfg
六、YARN搭建
1.编辑mapred-site.xml
2.伪分布yarn的配置 yarn-site.xml
3.验证是否安装成功
七、配置Hive
安装mysql
安装hive
八、配置hbse
1.解压
2.编辑全局配置(vi /etc/profile)
3.使全局配置生效 source /etc/profile
4.修改hbase-env.sh
5.修改regionservers文件,
6.修改hbase-site.xml
7.拷贝zookeeper conf/zoo.cfg到hbase的conf/下
8.赋予脚本执行权力
9.启动Hbase 在bin目录下执行 :./start-hbase.sh
九、配置flume
十、配置sqoop
总结

前言

记录hadoop配置全过程以备不时之需

提示:以下是本篇文章正文内容,下面案例可供参考

一、配置网络信息

1.修改配置信息

vi /etc/sysconfig/network-scripts/ifcfg-eth0

//编辑文件内容如下,最后一行和倒数第三行的网段可以随便写,符合标准即可
DEVICE=eth0
TYPE=Ethernet
ONBOOT=yes
NM_CONTROLLED=yes
BOOTPROTO=static
IPADDR=192.168.1.205
NATMASK=255.255.255.0
GATEWAY=192.168.1.56

2.重启网络服务(所有结果显示ok即成功)

service network restart

3.配置映射(修改主机名:vi /etc/sysconfig/network)

目的:将IP地址和机器名相映射,这样主机和其他用户相互通信时,可以直接使用主机名,也可以使用ip地址

vi /etc/hosts
//网络ip    主机名
192.168.1.56 master

二、SSH配置免密登录

1.创建密钥对

ssh-keygen -t rsa -P ''

虚拟机配置Hadoop

2.传递公钥
ssh-copy-id -i ~/.ssh/id_rsa.pub 用户名@主机名

虚拟机配置Hadoop

ssh 主机名 这个命令用来检验是否配置成功(不需要输入密码则为成功)

三、安装和配置jdk(xshell操作)

1.传输通道:sftp ip(本地直接拖拽安装包即可上传虚拟机)

  1. 查看当前系统jdk

rpm -qa | grep jdk

  1. 删除系统jdk(root用户)

rpm -e –nodeps java…(jdk 名称)

  1. 安装jdk
  2. 上传jdk到CenOS

sftp 192.168.56.2 cd进入到目标目录下拖进去
2.解压 tar -zxvf 压缩包目录
tar -zxvf 压缩包路径 -C 解压文件全路径

2.修改全局配置文件

在末尾添加jdk安装全路径和环境变量

虚拟机配置Hadoop
虚拟机配置Hadoop
使全局配置生效并验证是否成功
虚拟机配置Hadoop

四、Hadoop安装和部署(单节点伪分布)

安装CDH

  1. 上传CDH压缩文件到CentOS
  2. 解压CDH压缩文件
  3. 修改配置文件

cd hadoop安装目录 cd etc/hadoop(注意etc前面不要加/会去到根目录下)
①修改hadoop-env.sh
hadoop: vi hadoop-env.sh
在文件末尾添加
export JAVA_HOME=jdk安装目录
export HADOOP_HOME=cdh安装目录

虚拟机配置Hadoop

②修改core-site.xml
vi core-site.xml
添加:

虚拟机配置Hadoop

③修改hdfs-site.xml
vi hdfs-site.xml

虚拟机配置Hadoop

④修改slaves文件vi slaves
添加: master

虚拟机配置Hadoop

⑤追加HADOOP_HOME到/etc/profile中
vi /etc/profile
添加:
export HADOOP_HOME=路径
export PATH=$HADOOP_HOME/bin:$PATH

虚拟机配置Hadoop
⑥使配置文件生效
source /etc/profile
hadoop 命令可以检测Hadoop环境
(4)格式化hdfs
执行
hadoop namenode -format(仅第一次执行,不要重复执行)
虚拟机配置Hadoop
有如上图字眼即为成功
启动Hadoop并验证安装
进入sbin目录 执行 ./start-dfs.sh
(5)检验是否启动成功
①通过进程查看 jps
出现:I. 8817 DataNode
II. 9013 SecondaryNameNodes
III.9119 jps
IV. 8714 NameNode
虚拟机配置Hadoop
②通过浏览器查看
虚拟机配置Hadoop
虚拟机配置Hadoop

(6)停止hadoop
进入sbin目录 ./stop-dfs.sh

五、zookeeper(分布式协调服务)的安装与运行

  1. 上传压缩文件到CentOS
  2. 解压文件
  3. 创建zoo.cfg,在…/Zookeeper/conf下有zoo_sample.cfg文件,复制并重命名为zoo.cfg

虚拟机配置Hadoop
修改dataDir路径vi zoo.cfg
dataDir 默认是/tmp/zookeeper ,由于/tmp 是Ubuntu 的 临时目录,这个路径下的数据不能长久保存,因此需要指定到别的已存在的目录。
虚拟机配置Hadoop
虚拟机配置Hadoop
./zkServer.sh stop:停止服务

六、YARN搭建

yarn的配置文件在hadoop目录下的etc/hadoop下

虚拟机配置Hadoop
1.编辑mapred-site.xml
cp mapred-site.xml.template mapred-site.xml
vi mapred-site.xml

虚拟机配置Hadoop
<property>
    <name>mapreduce.framework.name</name>
    <value>yarn</value>
</property>

虚拟机配置Hadoop

虚拟机配置Hadoop
<property>
    <name>yarn.nodemanager.aux-services</name>
    <value>mapreduce_shuffle</value>
</property>

虚拟机配置Hadoop
虚拟机配置Hadoop
两个都启动共有六个进程则成功
虚拟机配置Hadoop

七、配置Hive

本地模式需要MySQL作为hive的存储数据库,所以安装hive之前需要先安装MySQL

安装mysql

虚拟机配置Hadoop
2. rpm -ivh –force –nodeps perl-*.rpm 强制安装忽略依赖,以perl开头的(上传到哪就在哪个路径下执行。如果报rpm: command not found,先安装rpm apt install linuxbrew-wrapper)虚拟机配置Hadoop
3. rpm -ivh mysql-libs-5.1.73-5.el6_7.1.x86_64.rpm 升级mysql库(如果报错,则在末尾加上–force –nodeps)虚拟机配置Hadoop
虚拟机配置Hadoop
  1. 登录到mysql : 默认mysql是没有密码的 mysql -u root
  2. 完成mysql的基本设置:
    use mysql – 使用mysql子库
    select user,password,host from user; – 查询mysql的权限信息表
    delete from user where host!=’127.0.0.1′; – 删除不需要的用户信息
    update user set password=password(‘123456′) where user=’root”; – 修改mysql的密码
    update user set host=’%’ where user=’root’; – 开启远端访问mysql的权限
    flush privileges; – 刷新mysql的权限

安装hive

  1. 在mysql下创建hive数据库

create database hive;

  1. 设置hive登录权限

grant all on hive.* to root@master identified by ‘你的密码’;

  1. 刷新权限

flush privileges;

  1. exit; 退出

(ctrl+c退出)

  1. 上传hive的压缩包,并解压

tar -zxvf 压缩包路径 -C ~/app

  1. 上传hive-site.xml 到hive目录下的conf目录下
  2. 修改hive-env.sh配置文件

cp hive-env.sh.template hive-env.sh
vi hive-env.sh
export JAVA_HOME=jdk的安装目录
export HADOOP_HOME=hadoop的安装目录

虚拟机配置Hadoop
  1. 上传mysql的驱动jar包 至 hive的安装目录下的lib目录下
  2. 修改配置文件 (全局变量)vi /etc/profile

export HIVE_HOME=hive的安装目录
export PATH=$HIVE_HOME/bin:$PATH

虚拟机配置Hadoop
  1. 刷新配置 生效

source /etc/profile

  1. 在hadoop mysql启动的情况下,进入hive

hive
(关闭安全模式hadoop dfsadmin -safemode leave)

虚拟机配置Hadoop

八、配置hbse

1.解压 2.编辑全局配置(vi /etc/profile)

虚拟机配置Hadoop

虚拟机配置Hadoop
在配置中找到如下代码,记得将’#’删掉
虚拟机配置Hadoop
虚拟机配置Hadoop
5. 修改regionservers 文件,添加master
虚拟机配置Hadoop
6.修改hbase-site.xml
<configuration>
     <property>
        <name>hbase.rootdir</name>
        <value>hdfs://master:8020/hbase</value>
     </property>
 <property>
        <name>hbase.cluster.distributed</name>
        <value>true</value>
    </property>
   <property>
        <name>hbase.master</name>
        <value>master:60000</value>
    </property>
<property>
        <name>hbase.zookeeper.quorum</name>
        <value>master</value>
    </property>
</configuration>

虚拟机配置Hadoop

虚拟机配置Hadoop

8.赋予脚本执行权力chmod +x ~/app/hbase-1.2.0-cdh5.7.0/bin/start-hbase.sh

虚拟机配置Hadoop
使用hbase shell 命令进入hbase
虚拟机配置Hadoop

九、配置flume

1.修改配置文件 vi flume-env.sh

虚拟机配置Hadoop
虚拟机配置Hadoop
2.验证flume的安装
虚拟机配置Hadoop

十、配置sqoop

1.解压sqoop压缩包到指定路径

2.复制conf下的sqoop-env-template.sh改名为sqoop-env.sh并做如下修改

虚拟机配置Hadoop

在全局变量中添加sqoop(vi /etc/profile)并生效(source /etc/profile)

虚拟机配置Hadoop

虚拟机配置Hadoop

虚拟机配置Hadoop

附件

到这里就配置结束啦!附上相关资料:链接: https://pan.baidu.com/s/1z2-1qmdCE0JyyrK-2_pj_Q?pwd=sve7 提取码: sve7 复制这段内容后打开百度网盘手机App,操作更方便哦

Original: https://blog.csdn.net/qq_53828362/article/details/125029378
Author: 尢词
Title: 虚拟机配置Hadoop

原创文章受到原创版权保护。转载请注明出处:https://www.johngo689.com/818293/

转载文章受原作者版权保护。转载请注明原作者出处!

(0)

大家都在看

亲爱的 Coder【最近整理,可免费获取】👉 最新必读书单  | 👏 面试题下载  | 🌎 免费的AI知识星球