Hadoop伪分布模式筹建
Hadoop伪分布模式搭建!-- Put site-specific property overrides in this file. --configurationprop
Hadoop伪分布模式搭建
<!-- Put site-specific property overrides in this file. -->
<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://localhost:9000</value>
<description>The name of the default file system. A URI whose scheme and authority determine the FileSystem implementation.
</description>
</property>
</configuration>mapred-site.xml
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<!-- Put site-specific property overrides in this file. -->
<configuration>
<property>
<name>mapred.job.tracker</name>
<value>localhost:9001</value>
<description>The host and port that the MapReduce job tracker runs at.
</description>
</property>
</configuration>
hdfs-site.xml
<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<!-- Put site-specific property overrides in this file. -->
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
<description>The actual number of replication can be specified when the file is created.
</description>
</property>
</configuration>
? ???6. 启动Hadoop的几个守护进程
bin/start-all.sh
7. 查看Hadoop的几个守护进程,
jps
? ? 如果正常应该可以看到以下结果,包括NameNode, DataNode, SecondaryNameNode, JobTracker, TaskTracker。
Hadoop Task Tracker 状态:http://localhost:50060

Hadoop DFS 状态:http://localhost:50070

? ?? ?? ?? ?? ? 9. 结束Hadoop
bin/stop-all.sh
Hadoop2.2.0安装配置手册!完全分布式Hadoop集群搭建过程历时一周多,终于搭建好最新版本hadoop2.2集群,期间遇到各种问题,作为菜鸟真心被各种折磨,不过当wordcount给出结果的那一刻,兴奋的不得了~~(文当中若有错误之处或疑问欢迎指正,互相学习)
PS:?
第一部分 Hadoop 2.2 下载
? ?? ?? ? Hadoop我们从Apache官方网站直接下载最新版本Hadoop2.2。官方目前是提供了linux32位系统可执行文件,所以如果需要在64位系统上部署则需要单独下载src 源码自行编译。下载地址:http://apache.claz.org/hadoop/common/hadoop-2.2.0/如下图所示,下载红色标记部分即可。如果要自行编译则下载src.tar.gz.

第二部分 集群环境搭建1、这里我们搭建一个由三台机器组成的集群:192.168.0.1? ???hduser/passwd? ?? ???cloud001? ?? ? nn/snn/rm? ?? ???CentOS6 64bit192.168.0.2? ???hduser/passwd? ?? ???cloud002? ?? ???dn/nm? ?? ?? ?? ? Ubuntu13.04 32bit192.168.0.3? ???hduser/passwd? ?? ???cloud003? ?? ???dn/nm? ?? ?? ?? ???Ubuntu13.0432bit1.1 上面各列分别为IP、user/passwd、hostname、在cluster中充当的角色(namenode, secondary namenode, datanode , resourcemanager, nodemanager)1.2? ?Hostname可以在/etc/hostname中修改(ubuntu是在这个路径下,redhat稍有不同)1.3??这里我们为每台机器新建了一个账户hduser.这里需要给每个账户分配sudo的权限。(切换到root账户,修改/etc/sudoers文件,增加:hduser??ALL=(ALL) ALL )2、修改/etc/hosts 文件,增加三台机器的ip和hostname的映射关系? ?? ?? ?? ?? ? 192.168.0.1? ???cloud001? ?? ?? ?? ?? ? 192.168.0.2? ???cloud002? ?? ?? ?? ?? ? 192.168.0.3? ???cloud0033、打通cloud001到cloud002、cloud003的SSH无密码登陆3.1 安装ssh? ?? ?? ?一般系统是默认安装了ssh命令的。如果没有,或者版本比较老,则可以重新安装:??sodu apt-get install ssh3.2设置local无密码登陆安装完成后会在~目录(当前用户主目录,即这里的/home/hduser)下产生一个隐藏文件夹.ssh(ls??-a 可以查看隐藏文件)。如果没有这个文件,自己新建即可(mkdir .ssh)。具体步骤如下:1、 进入.ssh文件夹2、 ssh-keygen -t??rsa 之后一路回 车(产生秘钥)3、 把id_rsa.pub 追加到授权的 key 里面去(cat id_rsa.pub >> authorized_keys)4、 重启 SSH 服 务命令使其生效 :service sshd restart(这里RedHat下为sshdUbuntu下为ssh)此时已经可以进行ssh localhost的无密码登陆? ???【注意】:以上操作在每台机器上面都要进行。3.3设置远程无密码登陆这里只有cloud001是master,如果有多个namenode,或者rm的话则需要打通所有master都其他剩余节点的免密码登陆。(将001的authorized_keys追加到002和003的authorized_keys)进入001的.ssh目录scp authorized_keys hduser@cloud002:~/.ssh/ authorized_keys_from_cloud001进入002的.ssh目录cat authorized_keys_from_cloud001>> authorized_keys至此,可以在001上面sshhduser@cloud002进行无密码登陆了。003的操作相同。4、安装jdk(建议每台机器的JAVA_HOME路径信息相同)注意:这里选择下载jdk并自行安装,而不是通过源直接安装(apt-get install)
?