hadoop&hive安装配置.pdf
《hadoop&hive安装配置.pdf》由会员分享,可在线阅读,更多相关《hadoop&hive安装配置.pdf(12页珍藏版)》请在淘文阁 - 分享文档赚钱的网站上搜索。
1、3 台机器:master(10.0.0.200),slave1(10.0.0.201),slave2(10.0.0.202)系统都为 Centos 5假设将 master做为 namenonde,将 slave1和 slave2 做为 datanode1.在 master:(在 slave1 和 slave2 上操作和以下相同)vi/etc/hosts10.0.0.200 master10.0.0.201 slave110.0.0.202 slave22.用 root 登陆,建立 hadoop 用户useradd hadooppasswd hadoop输入 111111 做为密码3.su-ha
2、doop#进入 hadoop 用户目录ssh-keygen-t rsa#建立 ssh 目录,敲回车到底cd.sshscp-r id_rsa.pub hadoopslave1:/home/hadoop/.ssh/authorized_keys_m#将 master上的密钥传到 slave1 的 hadoop 用户下,重命名为 authorized_keys_mscp-r id_rsa.pub hadoopslave2:/home/hadoop/.ssh/authorized_keys_m#将 master上的密钥传到 slave2 的 hadoop 用户下,重命名为 authorized_key
3、s_m用 hadoop 用户进入 slave1scp-r id_rsa.pub hadoopmaster:/home/hadoop/.ssh/authorized_keys_s1#将 slave1 上的密钥传到 master的 hadoop 用户下用 hadoop 用户进入 slave2scp-r id_rsa.pub hadoopmaster:/home/hadoop/.ssh/authorized_keys_s2#将 slave2 上的密钥传到 master的 hadoop 用户下在 master,slave1和 slave22 上执行以下操作cat id_rsa.pub authoriz
4、ed_keys_m(_s)#将本地密钥添加 authorized_keys这样主节点和从节点之间就可以不用密码直接ssh 访问4.安装 JDK 到/usr/local 下命名为 jdk1.6然后:编辑三台机器的/etc/profile,增加如下容export JAVA_HOME=/usr/local/jdk1.6export CLASSPATH=$CLASSPATH:$JAVA_HOME/lib:$JAVA_HOME/jre/libexport PATH=$JAVA_HOME/lib:$JAVA_HOME/jre/bin:$PATH:$HOME/binexport HADOOP_HOME=/h
5、ome/hadoop/hadoop-0.19.0export PATH=$PATH:$HADOOP_HOME/bin-hadoop 配置:1.将下载好的 hadoop-0.19.0.tar.gz文件上传到 master的/home/hadooptar zxvf hadoop-0.19.0.tar.gz#解压文件2.修改 4 个文件 hadoop-site.xml,hadoop-env.sh,masters,slavesmasters:masterslaves:slave1slave2hadoop-env.shexport JAVA_HOME=/usr/local/jdk1.6hadoop-si
6、te.xml:fs.default.namehdfs:/master:54310/mapred.job.tracker/hdfs:/master:54311/dfs.replication3#指定 HDFS 中每个 Block 被复制的次数,起数据冗余备份的作用。在典型的生产系统中,这个数常常设置为3hadoop.tmp.dir/home/hadoop/tmp/#hadoop 的 tmp 目录路径dfs.name.dir/home/hadoop/name/#hadoop 的 name 目录路径mapred.child.java.opts-Xmx512m#进程dfs.block.size6710
7、8864The default block size for new files.#新文件默认 block 大小dfs.permissionsfalse#效验 HDFS 文件系统权限dfs.web.ugihadoop,supergroup#hadoop 页面访问权限heartbeat.recheck.interval5000#心跳间隔时间,5000 秒=40 分3.配置好后先在/home/hadoop下建立/tmp 目录然后进入 hadoop 的 bin 目录 hadoop namenode-format 格式化 namenodestart-dfs启动 namenode 上的 hadoopne
8、tstat-tnl查看 50070,54310,50090端口是否启动master:50070访问4.将配置好的 hadoop 打包cd/home/hadooptar-cvf hadoop-0.19.0.tar.gz hadoop-0.19.0/scp-r hadoop-0.19.0.tar.gz hadoopslave1:/home/hadoopscp-r hadoop-0.19.0.tar.gz hadoopslave2:/home/hadoop在 slave1 和 slave2 上配置和 master一样只需修改 hadoop-site.xml文件去掉dfs.name.dir/home/
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- hadoop hive 安装 配置
限制150内