安装 apache hadoop 2.7.2 集群
这是我安装编译hadoop得意个笔记手册,和大家分享一下。
环境:
系统 Centos 7
java : 1.8
apache hadoop 版本 : 2.7.2
hadoop集群hosts列表
IP | hostname | 运行服务 |
---|---|---|
192.168.77.158 | namenode00.host-shining.com | namenode、zk、journalnode、standby-resourcemanager,hbase-master、spark-master |
192.168.77.159 | namenode01.host-shining.com | namenode、zk、journalnode、resourcemanager,hbase-master、jobhistory |
192.168.77.161 | datanode00.host-shining.com | datanode、nodemanager、zk、journalnode |
192.168.77.162 | datanode01.host-shining.com | datanode、nodemanager、zk、journalnode |
192.168.77.163 | datanode02.host-shining.com | datanode、nodemanager、zk、journalnode |
192.168.77.164 | datanode03.host-shining.com | datanode、nodemanager、regionserver、spark-work |
192.168.77.165 | datanode04.host-shining.com | datanode、nodemanager、regionserver、spark-work |
192.168.77.166 | datanode05.host-shining.com | datanode、nodemanager、regionserver、spark-work |
192.168.77.167 | datanode06.host-shining.com | datanode、nodemanager、regionserver、spark-work |
192.168.77.168 | datanode07.host-shining.com | datanode、nodemanager |
192.168.77.169 | datanode08.host-shining.com | datanode、nodemanager |
192.168.77.170 | datanode09.host-shining.com | datanode、nodemanager |
hosts文件并同步到每台机器上。
hadoop client 列表
IP | hostname |
---|---|
192.168.77.160 | client01.host-shining.com |
安装软件包和lzop软件(每台机器都执行)
1 | yum -y install wget gcc gcc-c++ gcc-g77 autoconf automake zlib* fiex* libxml* ncurses-devel libmcrypt* libtool-ltdl-devel* make cmake bind-utils ntp ntpdate lrzsz rsync gzip unzip vim telnet openssl-devel nscd g++ sysstat ncurses-libs bzip2-devel git lsof expect |
安装jdk 1.8 (需要每台机器执行)
1 | tar -zxf jdk-8u45-linux-x64.tar.gz && mkdir /usr/java/ && mv jdk1.8.0_45/ /usr/java/ |
创建hadoop用户并添加无密码登入(每台集群都执行)
1 | useradd hadoop |
创建添加key的脚本,每台机器添加完用户之后执行 sh key_add.sh
1 | vim key_add.sh |
datanode机器格式化硬盘 (所有datanode节点执行)
1 | vim fdisk.sh |
mount 挂在硬盘 (所有datanode节点执行)
1 | vim mount.sh |
下载软件包
1 | /home/hadoop/apache-hadoop && cd /home/hadoop/apache-hadoop |
安装zookeeper
1 | tar -zxvf zookeeper-3.4.8.tar.gz && ln -s zookeeper-3.4.8 zookeeper |
用supervisor守护zookeeper (supervisor需要重启)
1 |
|
安装hdfs
创建目录
1 | cd /home/hadoop/apache-hadoop |
开始修改配置文件
hdfs-site.xml 配置文件
1 | <?xml version="1.0" encoding="UTF-8"?> |
core-site.xml 配置文件
1 | <?xml version="1.0" encoding="UTF-8"?> |
hadoop-env.sh 配置文件 (去掉了注释部分)
1 | export JAVA_HOME=/usr/java/jdk1.8.0_45 |
mapred-site.xml 配置文件
1 | <?xml version="1.0"?> |
yarn-site.xml 配置文件
1 | <?xml version="1.0"?> |
yarn-env.sh 配置文件
1 | export HADOOP_YARN_USER=${HADOOP_YARN_USER:-yarn} |
slave 配置文件
1 | datanode00.host-shining.com |
apache maven 安装
1 | cd /home/hadoop |
设置环境变量 (每台机器都需要配置)
1 | export MAVEN_OPTS="-Xms1024m -Xmx1024m -Xss1m" |
protobuf 安装
1 | tar -zxvf protobuf-2.5.0.tar.gz (每台机器安装) |
编译hdfs源码, lib库 (编译以前需要安装maven,下载之后解压,设置环境变量即可,不需要没台机器都安装)
1 | wget http://apache.fayea.com/hadoop/common/hadoop-2.7.2/hadoop-2.7.2-src.tar.gz |
编译lzo压缩格式
1 | 下载 lzo https://codeload.github.com/twitter/hadoop-lzo/zip/master |
安装hbase
1 | tar -zxvf hbase-1.2.2-bin.tar.gz && ln -s hbase-1.2.2 hbase |
修改配置文件
hbase.site.xml 配置文件
1 | <?xml version="1.0"?> |
hbase-env.sh 修改配置文件 (取消了注释的内容)
1 | export JAVA_HOME=/usr/java/jdk1.8.0_45 |
regionservers 配置文件修改
1 | datanode03.host-shining.com |
备注
1 | hbase-env.sh 中 |
hive安装
数据库创建与授权
1 | mysql -uroot -p |
导入hive元数据库
1 | tar -zxvf apache-hive-2.1.0-bin.tar.gz && ln -s apache-hive-2.1.0-bin hive |
替换java jdbc jar
1 | hive 需要 java jar |
hive-site.xml 配置文件 (根据环境配置,线上用的是default文件)
1 | <property> |
hive-env.sh
1 | export HADOOP_HEAPSIZE=2048 |
启动 hive metastore和 server2
1 | mkdir $HIVE_HOME/hive-logs |
hadoop启动
1 | chmod 755 -R /home/hadoop/apache-hadoop |
spark 安装
1 | wget http://downloads.lightbend.com/scala/2.11.8/scala-2.11.8.tgz (每台机器安装) |
spark-default.conf 配置文件
1 | spark.master spark://cd-namenode00.host-shining.com:7077 |
spark-env.sh 配置文件
1 | export SPARK_WORKER_MEMORY=5G |
slave 节点信息
1 | datanode03.host-shining.com |
spark 启动
1 | cd $SPARK_HOME/sbin |
查看状态
namenode地址 http://name00.host-shining.com:50070
spark 地址 http://name00.host-shining.com:8080
hbase地址 http://name00.host-shining.com:16010
yarn 地址 http://name01.host-shining.com:8088
jobhistory 地址 http://name01.host-shining.com:19888
感觉文章还可以的话,帮忙点点下面的广告哦! 谢谢支持!