首页 诗词 字典 板报 句子 名言 友答 励志 学校 网站地图
当前位置: 首页 > 教程频道 > 其他教程 > 互联网 >

Hadoop装配与配置

2012-07-31 
Hadoop安装与配置1.前言?? ? ? 这里暂时不讲解什么是Hadoop(既然谷歌能找到),本人也安装过Hadoop,不过是伪

Hadoop安装与配置

1.前言

?

? ? ? 这里暂时不讲解什么是Hadoop(既然谷歌能找到),本人也安装过Hadoop,不过是伪分布的方式安装的,这次是3部虚拟机安装,确实遇到了一些问题,所以写下这个教程。其他:反正也没人看前言,这里就略过吧。

? ? ? ? ? ? ? ? ? ? ? ?? ?
2.Hadoop 安装前准备

?

? ? ??虚拟机:master(192.168.1.1) slave1(192.168.1.2) slave2(192.168.1.3)

? ? ??配置Host:vi /etc/hosts

? ? ? ? ? ? ? ? ? ? ?192.168.1.1 master
? ? ? ? ? ? ? ? ? ? ?192.168.1.2 slave1?
? ? ? ? ? ? ? ? ? ? ?192.168.1.3 slave2

? ? ? 建立SSH,在master中

? ? ? ? ? ? ? ? ? ?mkdir ~/.ssh

? ? ? ? ? ? ? ? ? ?chmod 700 ~/.ssh #同样在slave1,slave2建立

? ? ? ? ? ? ? ? ? ?进入.ssh目录,生成密钥

? ? ? ? ? ? ? ? ? ?ssh-keygen -t rsa ?#一直确定到结束

? ? ? ? ? ? ? ? ? ?发布公钥到slave1跟slave2

? ? ? ? ? ? ? ? ? ?#hadoop_user为你的账户

? ? ? ? ? ? ? ? ? ?scp id_rsa.pub hadoop_user@slave1:/home/hadoop_user/master_key ?

? ? ? ? ? ? ? ? ? ?进入slave1中的.ssh目录 如果.ssh目录中不存在authorized_keys:

? ? ? ? ? ? ? ? ? ?mv master_key?authorized_keys

? ? ? ? ? ? ? ? ? ?chmod 600?authorized_keys

? ? ? ? ? ? ? ? ? ?如果存在则把master_key追加到authorized_keys中:

? ? ? ? ? ? ? ? ? ?cat master_key >> authorized_keys

? ? ? ? ? ? ? ? ? ?回到master中

? ? ? ? ? ? ? ? ? ?ssh slave1 ? ? #第一次访问需要键入yes,然后直接登录,不需要密码

? ? ? ? ? ? ? ? ? ?同理:

? ? ? ? ? ? ? ? ? ? ? ? ? master对slave2做ssh

? ? ? ? ? ? ? ? ? ? ? ? ? slave1对master做ssh

?? ? ? ? ? ? ? ? ? ? ? ? ?slave2对master做ssh

?? ? ? ? ? ? ? ? ? ? ? ? ?master对master本身做ssh

?? ? ? ?关于安装JDK6以及将JDK的环境变量设置,这里就不赘述,PS:Google吧,不懂的话

?

?3.Hadoop安装?

?

? ? ? 在http://hadoop.apache.org/common/releases.html下载Hadoop,目前最新的是1.0.x,下载解压到你自己想放的目录中,我这里放在/usr/hadoop,添加路径到/etc/profile中:

? ? ??export HADOOP_HOME=/usr/hadoop/
? ? ? export PATH=$HADOOP_HOME/bin:$PATH

? ? ? 好了,安装好了!!!


?4.Hadoop配置?

?

? ? ? ?进入HADOOP_HOME/conf修改core-site.xml文件

? ? ? ?<configuration>?
? ? ? ? ? ?<property>?
? ? ? ? ? ? ? ?<name>fs.default.name</name>?
? ? ? ? ? ? ? ?<value>hdfs://master:9000</value>?
? ? ? ? ? ?</property>
? ? ? ?</configuration>

?

? ? ? ?修改mapred-site.xml

? ? ? ?<configuration>?
? ? ? ? ? ?<property>?
? ? ? ? ? ? ? ?<name>mapred.job.tracker</name>?
? ? ? ? ? ? ? ?<value>master:9001</value>?
? ? ? ? ? ?</property>
? ? ? ?</configuration>

?

?

? ? ? ?修改hdfs-site.xml

? ? ? ?<configuration>?
? ? ? ? ? ?<property>?
? ? ? ? ? ? ? ?<name>dfs.replication</name>?
? ? ? ? ? ? ? ?<value>3</value>?
? ? ? ? ? ?</property>
? ? ? ?</configuration>

?

? ? ? ?修改masters文件

? ? ? ?master

?

? ? ? ?修改slaves
? ? ? ?slave1?
? ? ? ?slave2?

?

? ? ? ?修改hadoop-env.sh,去掉export JAVA_HOME前面的#号
? ? ? ?export JAVA_HOME=/usr/local/jdk1.6 ??

?

? ? ? ?好了,我们在启动之前我们要先格式化一下namenode

? ? ? ?hadoop namenode -format

?

? ? ? ?经过这步,终于可以启动我们的hadoop了:

? ? ? ?start-all.sh ? #因为我们把整个hadoop的bin加入到profile中,所以我们可以直接运行(给新手解释一下)

?

?5.Hadoop测试

?

? ? ? ? 打开浏览器,输入:http://master:50070/就可以看到如下集群信息啦!!!怎样,赶紧跟着配置一下吧。

?

Cluster Summary
7 files and directories, 1 blocks = 8 total. Heap Size is 23.69 MB / 966.69 MB (2%)

Configured Capacity : 13.32 GB
DFS Used : 72 KB
Non DFS Used : 7.39 GB
DFS Remaining : 5.93 GB
DFS Used% : 0 %
DFS Remaining% : 44.54 %
Live Nodes : 2
Dead Nodes : 0
Decommissioning Nodes : 0
Number of Under-Replicated Blocks : 1


关于分享本文,请保留本文出处:http://canon--in--d.iteye.com/blog/1490699




?

赞一个

热点排行