欢迎来到冰点文库! | 帮助中心 分享价值,成长自我!
冰点文库
全部分类
  • 临时分类>
  • IT计算机>
  • 经管营销>
  • 医药卫生>
  • 自然科学>
  • 农林牧渔>
  • 人文社科>
  • 工程科技>
  • PPT模板>
  • 求职职场>
  • 解决方案>
  • 总结汇报>
  • ImageVerifierCode 换一换
    首页 冰点文库 > 资源分类 > DOCX文档下载
    分享到微信 分享到微博 分享到QQ空间

    CentOS64位环境下Hadoop260分布式部署说明.docx

    • 资源ID:2353452       资源大小:625.21KB        全文页数:16页
    • 资源格式: DOCX        下载积分:3金币
    快捷下载 游客一键下载
    账号登录下载
    微信登录下载
    三方登录下载: 微信开放平台登录 QQ登录
    二维码
    微信扫一扫登录
    下载资源需要3金币
    邮箱/手机:
    温馨提示:
    快捷下载时,用户名和密码都是您填写的邮箱或者手机号,方便查询和重复下载(系统自动生成)。
    如填写123,账号就是123,密码也是123。
    支付方式: 支付宝    微信支付   
    验证码:   换一换

    加入VIP,免费下载
     
    账号:
    密码:
    验证码:   换一换
      忘记密码?
        
    友情提示
    2、PDF文件下载后,可能会被浏览器默认打开,此种情况可以点击浏览器菜单,保存网页到桌面,就可以正常下载了。
    3、本站不支持迅雷下载,请使用电脑自带的IE浏览器,或者360浏览器、谷歌浏览器下载即可。
    4、本站资源下载后的文档和图纸-无水印,预览文档经过压缩,下载后原文更清晰。
    5、试题试卷类文档,如果标题没有明确说明有答案则都视为没有答案,请知晓。

    CentOS64位环境下Hadoop260分布式部署说明.docx

    1、CentOS64位环境下Hadoop260分布式部署说明1,准备工作 1,部署CentOS 7.0(64位)环境;需配置静态IP地址。 1),设置虚拟机网络。 首先打开本机的”打开网络和共享中心”:选择打开”本地连接”,并点击”属性”,勾选”允许其他网络用户通过此计算机的Internet连接来连接”,从下拉框中选择”VMware Network Adapter VMnet8”:虚拟机菜单-编辑-虚拟网络编辑:选择WMnet8 (NAT模式)设置静态IP地址,进入CentOS系统,打开”系统工具”-”设置”-”网络”,选择”手动”,输入IP地址,地址和网关参考上图的子网IP及网关设置。设置完毕之

    2、后,再开启就可以发现网络IP地址已经变为设置后的地址。测试网络是否连通: 2),设置主机名。 在root下,打开/etc/hostname 改为namenode,保存。 2,Hadoop -2.6.0 下载,下载地址: 2,安装Java 1),搜索jdk开发环境 yum search jdk2),安装jdk yum install java-1.8.0-openjdk-devel.x86_643),检查是否安装成功 java -version可以看见当前的jdk版本已经是”1.8.0_91”。表示已经安装成功。3,安装Hadoop1),将第一步下载的hadoop版本安装包上传至 /usr/lo

    3、cal/ 文件夹,并解压。cd /usr/localgunzip hadoop-2.6.0.tar.gztar -xvf hadoop-2.6.0.tar2),配置环境打开 /etc/profile在文件的最后位置,追加上如下配置:#setjavaenvironmentexport JAVA_HOME=/usr/lib/jvm/javaexport JRE_HOME=$JAVA_HOME/jreexport PATH=$PATH:$JAVA_HOME/binexport CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jarexpo

    4、rt HADOOP_HOME=/usr/local/hadoop-2.6.0export HADOOP_CONF_DIR=/usr/local/hadoop-2.6.0/etc/hadoopexport YARN_CONF_DIR=/usr/local/hadoop-2.6.0/etc/hadoopexport PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH3),激活配置 source /etc/profile4),创建hdfs相关目录mkdir /home/hadoop/hd_space/tmp -pmkdir /home/hadoop/hd_sp

    5、ace/hdfs/name -pmkdir /home/hadoop/hd_space/hdfs/data -pmkdir /home/hadoop/hd_space/mapred/local -pmkdir-p/home/hadoop/hd_space/mapred/systemchown-Rhadoop:hadoop/home/hadoop/hd_space/chown-Rhadoop:hadoop/usr/local/hadoop-2.6.04,虚拟机克隆1),选择菜单栏中的“虚拟机-管理-克隆”。选择”创建完整克隆”。2),更改虚拟机的网卡 打开克隆虚拟机,“网络适配器”-“高级”如下

    6、图:MACdatanode1:HWADDR=00:0C:29:10:EC:78datanode2:HWADDR=00:0C:29:10:EC:793),更改主机名主机ip配置 分别用root登录克隆的两台机器,打开并编辑/etc/hostname,分别输入 datanode1和datanode2。 打开/etc/sysconfig/network-scripts/ifcfg-eno16777756,修改相关内容:datanode1:HWADDR=00:0C:29:10:EC:78IPADDR=192.168.128.111datanode2:HWADDR=00:0C:29:10:EC:79IP

    7、ADDR=192.168.128.1124),重启3台虚拟机。5,3台虚拟机建立互连1),root登陆namenode,打开并编辑/etc/hosts,修改内容: 192.168.128.110 namenode 192.168.128.111 datanode1 192.168.128.112 datanode22),将修改后的文件,分别拷贝到datanode1和datanode2 在终端执行如下指令: scp /etc/hosts root192.168.128.111:/etc/hosts scp /etc/hosts root192.168.128.112:/etc/hosts3),通

    8、过SSH建立互连用hadoop分别登陆namenode、datanode1、datanode2。ssh-keygen-trsa 采用默认值3次回车。在datanode1登录hadoop用户scp/home/hadoop/.ssh/id_rsa.pubhadoopnamenode:/home/hadoop/.ssh/id_rsa.pub.datanode1在datanode2登录hadoop用户scp/home/hadoop/.ssh/id_rsa.pubhadoopnamenode:/home/hadoop/.ssh/id_rsa.pub.datanode2在namenode登录hadoop用

    9、户cd/home/hadoop/.ssh/llcatid_rsa.pubauthorized_keyscatid_rsa.pub.datanode1authorized_keyscatid_rsa.pub.datanode2authorized_keysscp/.ssh/authorized_keyshadoopdatanode1:/home/hadoop/.ssh/authorized_keysscp/.ssh/authorized_keyshadoopdatanode2:/home/hadoop/.ssh/authorized_keyschmod600/home/hadoop/.ssh/a

    10、uthorized_keys备注:无密码登陆,需要600权限(三台机器分别执行chmod600/home/hadoop/.ssh/authorized_keys)。4),测试连通:在namenode上分别执行: ssh datanode1 ssh datanode2在datanode1上执行ssh namenode 和 ssh datanode2在datanode2一样参照上述命令进行验证。6,Hadoop配置修改路径/usr/local/hadoop-2.5.2/etc/hadoop下的配置文件。1),编辑hadoop-env.sh修改JAVA_HOME并保存”exportJAVA_HOME

    11、=/usr/lib/jvm/java”2),编辑yarn-env.sh修改JAVA_HOME并保存exportJAVA_HOME=/usr/lib/jvm/java3),编辑core-site.xmlfs.defaultFShdfs:/namenode:9000hadoop.tmp.dir/home/hadoop/hd_space/tmp io.file.buffer.size 4096 4),编辑hdfs-site.xmldfs.namenode.name.dir/home/hadoop/hd_space/hdfs/namedfs.datanode.data.dir/home/hadoop/

    12、hd_space/hdfs/datadfs.replication 2dfs.namenode.secondary.http-addressdatanode1:50090dfs.namenode.secondary.https-addressdatanode1:500915),编辑mapred-site.xmlmapreduce.cluster.local.dir/home/hadoop/hd_space/mapred/localmapreduce.cluster.system.dir/home/hadoop/hd_space/mapred/systemmapreduce.framework.

    13、nameyarnmapreduce.jobhistory.addressnamenode:10020mapreduce.jobhistory.webapp.addressnamenode:198886),编辑yarn-site.xmlThehostnameoftheRM.yarn.resourcemanager.hostnamenamenodethevalidservicenameshouldonlycontaina-zA-Z0-9_andcannotstartwithnumbersyarn.nodemanager.aux-servicesmapreduce_shuffle7),修改slave

    14、s 打开/usr/local/hadoop-2.6.0/etc/hadoop/slaves,将里面的localhost改为datanode1和datanode28),修改datanode1 和 datanode2的hadoop配置 将namenode修改的配置文件,拷贝到datanode1和datanode2 scp-r/usr/local/hadoop-2.6.0/etc/hadoophadoopdatanode1:/usr/local/hadoop-2.6.0/etc scp-r/usr/local/hadoop-2.6.0/etc/hadoophadoopdatanode2:/usr/l

    15、ocal/hadoop-2.6.0/etc7,启动hadoop1),格式化 执行命令 hdfs namenode -format。 初次运行,首先要进行格式化(一次就够)2),启动dfs及yarn 执行如下指令 start-dfs.sh 执行如下指令 start-yarn.sh 或者直接执行 start-all.sh 效果和上述两个命令一样。相应的对应中止命令分别为 stop-dfs.sh stop-yarn.sh stop-all.sh3),前台验证 http:/192.168.128.110:50070/dfshealth.jsp 可以看到Live Nodes 个数为2http:/192.168.128.110:8088/cluster4),检查进程检查进程:5),检查日志文件 /usr/local/hadoop-2.6.0/logs6),删除日志 rm-rf/usr/local/hadoop-2.6.0/logs/*.*


    注意事项

    本文(CentOS64位环境下Hadoop260分布式部署说明.docx)为本站会员主动上传,冰点文库仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。 若此文所含内容侵犯了您的版权或隐私,请立即通知冰点文库(点击联系客服),我们立即给予删除!

    温馨提示:如果因为网速或其他原因下载失败请重新下载,重复下载不扣分。




    关于我们 - 网站声明 - 网站地图 - 资源地图 - 友情链接 - 网站客服 - 联系我们

    copyright@ 2008-2023 冰点文库 网站版权所有

    经营许可证编号:鄂ICP备19020893号-2


    收起
    展开