智慧气象项目部署运维手册.docx

上传人:夺命阿水 文档编号:535357 上传时间:2025-07-30 格式:DOCX 页数:19 大小:32.56KB
下载 相关 举报
智慧气象项目部署运维手册.docx_第1页
第1页 / 共19页
智慧气象项目部署运维手册.docx_第2页
第2页 / 共19页
智慧气象项目部署运维手册.docx_第3页
第3页 / 共19页
智慧气象项目部署运维手册.docx_第4页
第4页 / 共19页
智慧气象项目部署运维手册.docx_第5页
第5页 / 共19页
点击查看更多>>
资源描述

1、智慧气象项目部署运维手册XX科技股份有限公司编制目录一、文章编写目的5二、前置准备52.1 配置网络ip52.2 编写相关操作脚本91. 批量执行命令脚本92. 批量重命名脚本113. 批量拷贝脚本134. cm_migrate,sh155. format2.sh166. mountDisk.sh167. network,sh178. node,1.ist189. node,txt182.3hostname及hosts配置181.配置每台节点的hostname182.配置节点ip、hostname映射192.4 禁用SE1.inux192.5 关闭防火墙212.6 设置Swappiness21

2、2.7 关闭透明大页面222.8 配置操作系统本地yum源232.9 安装http服务252. 10集群时钟同步281.所有机器卸载ChrOny282 .所有机器安装nip283 .node1.机器配置时钟与自己同步284 .集群其它节点,配置找node1.机器去同步295 .重启所有机器的ntp服务296 .验证始终同步,在所有节点执行nipq-P命令,如下使用脚本批量执行292. 11安装NariaDB30三、C1.ouc1.eraManager安装372.1 配置本地CM源373. 2安装CIOUderaManagerServer40四、CDH安装424. 1CDH集群安装向导425.

3、2集群设置安装向导45五、HBASE安装465.1 准备工作:465.2 安装:461. 下载hbase1.3.2462. 解压463. 配置环境变量/.base_profi1.e464. hbase-env.sh配置javahomeWZK475. hbase-site.xm1.配置参数476 .酉已置regionserver497 .scp-rhbase到其他节点49六、F1.ume安装506. 1安装50七、Kafka安装:517. 1安装51一、文章编写目的本文档主要描述C1.oudera智慧气象系统的安装主要分为4个步骤:1 .集群服务器配置,包括安装操作系统、关闭防火墙、同步服务器时

4、钟等,又称为集群安装的前置准备,关于更多前置条件准备也可以参考之前的的文档CDH安装前置准备;2 .安装CIoUderaManager;3 .通过C1.ouderaManager的Web1.I向导式安装CD1.I集群;4 .集群完整性检查,包括HDFS文件系统、MaPRedUce、HiVe等是否可以正常运行。本文操作说明基于以下假设:1 .操作系统版本:Redhat7.42 .CDH和CM版本均为5.16.13 .采用root对集群进行部署4 .您已经下载CDH和CM的安装包二、前置准备2.1配置网络ip开启虚拟机,修改配置文件输入如下命令11etcsysconfignetwork-scrip

5、tsifcfg-*会出现如下内容(ifcfg-ens后面的名字可能不同)-rw.1rootroot6168月1319:25etcsysconfig/network-scripts/ifcfg-ens1.6777736-rw-r-r.1rootroot2541月32018etcsysconfignetwork-scriptsifcfg-1.o输入如下命令Vietcsysconfignetwork-scriptsifcfgens16777736出现下图界面rootwork-scripts#viifcfg-eno1.6777736# 网络类型(通常是Ethernet)TYPE=rEthernetw#

6、 IP的配置方法noneStatic1.bootpdhcpj(引导时不使用协议I静态分配IpIbootp协议IDHCP协议)bootproto=,dhcpDEFROUTE=yes”IPV4_FAI1.URE_FATA1.=noIPV6INIT=yesIPV6-A1.T0C0NF=yesIPV6_DEFRoUTE=yesIPV6FAI1.UREFT1.=noNAME=eno1.6777736# 随机idUUID=6d21f413-619d-4283-9ba2-e1.a724c1.c593DEVICE=eno1.6777736# 系统启动的时候网络接口是否有效(ycsno)ONBOOT=yesPE

7、ERDNS=yes”PEERROUTES=yes*IPV6_PEERDNS=yesIPV6一PEERRo1.TES=yesIPV6_PRIVACY=*no需要修改的地方有:BOOTPROTO=StaticWhcp改为static(修改)0NB00T=yes#开机启用本配置,一般在最后一行(修改)IPADDR=192.168.139.101#静态IP(增加)GATEWAY=I92.168.139.2#默认网关,虚拟机安装的话,通常是2,也就是VMnet8的网关设置(增加)NETMSK=255.255.255.0#子网掩码(增加)DNS1=192.168.139.2ffDNS配置,虚拟机安装的话,

8、DNS就网关就行,多个DNS网址的话再增加(增加)这里注意,因为律态ip地址设置为192.168.139.101,因此默认网关和DNS地址前面部分,即192.168.139必须相同,不然会出现无法Ping通的情况SVICE=ethOHWADDr=OO:0C:29:14:8B:FATYPE=EthernetUID=63af865f-878d-4d93-8284-85d60af589bbIDNBOOT=yes1NM_CONTRO1.1.ED=yesbPRQTQ=staticI1.PAK=1.Z.1.b.1.IUU5ATEWAY=192,168.1.2)NS1=114.114.114.114)NS2

9、8.8.8.8重启网络服务使ip生效servicenetworkrestart如果报错,reboot重启虚拟机三台节点配置的ip分别为:192.168.1.131,192.168.1.132.192.168.1.133注意:每台节点克隆后需要删除每台节点e1.cudevru1.es.d70-PCrSiStCnt-net.ru1.es文件,清除mac地址。重启每台节点即可。节点克隆后还可以使用以下方式修改mac地址roothadoop1.01ftvimetcudevru1.es,d70-persistent-net.ru1.es进入如下页面,删除eth该行;将eth1.修改为eth,同时复.制

10、物理ip地址,如图所示*rf.-d.,,,71.AE1.Md9eW2*34:C4AEusrjavajdk1.7.067-cIoudcraVerifyingthatwecanwritetoetcc1oudera-scm-serverCreatingSCMConfigurationfi1.einetcc1.oudera-scm-serverExecuting:usrjavajdk1.7.O67-c1.oudcra/bin/java-cpusrshare/java/mysq1-connector-java,jar:usrsharejavaorac1.e-connector-java.jar:usrs

11、harejava/postgresq1.connector-java,jarusrsharecmf/schema/.1.ib*com.cIoudera.enterprise,dbuti1.DbCommandExecutoretcc1.oudera-scm-serverdb.propertiescom.cIoudcra.cmf.db.mainDbCommandExecutorINFOSuccessfu1.Iyconnectedtodatabase.A1.Idone,yourSCMdatabaseisconfiguredcorrect1.y!6.2版本命令/opt/cIoudera/cmschem

12、ascm_prepare_database.shmysq1.cmcmpasswordifi6 .点击“继续”注意这里列出来的CDH版本都是系统最开始默认的,来自于CIoUdera公网的下载源仓库,这里我们需要先将CDH的安装源修改一下。7 .使用parce1.选择,点击“更多选项”,点击“-”删除其它所有地址,输入http:192.168.139.101cdh5.16.2,点击“保存更改”g”M3,219aiNQ保存更改后,这时回到上个页面会看到我们之前准备好的http的CDH5.16.1的源,如果显示不出来,可能http源配置有问题,请参考前面步骤仔细进行检查。8 .选择自定义存储库,输入C

13、m的http地址IUUteHJCNACMtMn力IhM了*MSfUu*c*1*r*1.*cMMMriw*v9 .点击“继续”,进入下一步安装jdk4. hbase-env.sh配置java_h(e和ZKambowhadoopNode1Conf$vi$HBASEHOME/conf/hbase-env.shexportJAVAHOME=homcw1.appjdk1.8.O121exportHAD00P_H0ME=/home/w1./app/hadoop-2.7.3exportHBASEMANAGESZK=fa1.sc#禁用Hbasc使用内置zookeperexportHBASE_BACK1.JP_

14、MASTERS=SHBASE-HOME)confbackup-masters#配置HA的第二个节HMaster节点新建一个$HBASE_HSIE/COnf/backup-masters文件viSHBASEJIOME/conf/backup-masters把备用的HMaStCr节点添加:hadoopNodc25. hbase-site.xm1.配置参数hbase.roo1.dirhdfsc1.uster1.dghbasehbasc.c1.uster,distributcdtruehbase.zookeeper,quorumhadoopNode1,hadoopNode2,hadoopNode3,h

15、adoopNode4.hadoopNode5hbase.zookeeper,property.dataDirhomeambowzkdatahdata6 .配Jtregionserver(配置每一个机器名子节点名不要配主节名)在hbaseCOnf/下新建regionserver文件,添加如入内容hadoopNodc3hadoopNode4hadoopNode57 .scp-rhbase到其他节点amboWWhadOOPNode1.confSscp-rapphbase-1. 3.2ambowhadoopNode5:appambowhadoopNodc1confSscp-rapphbasc-1.3.

16、2ambowhadoopNode4:vappambowhadoopNode1confSscprapphbase1.3.2ambowhadoopNodc3:appambHr0hadoopNode1confSscp-rapphbase-1.3.2ambowhadoopNode2:Vapp/ambowhadoopNode1.confSscp/.bashprofi1.eambow0hadoopNodc5:amboWWhadoOPNode1.confSscp/.bash_profi1.eambowhadoopNode4:ambowhadoopNodc1confSscp/.bash_profi1eambo

17、whadoopNode3:ambowhadoopNode1confJSscp/.bashprofi1.eambowQhadoopNodc2:各节点重新加载:sourceV.bash_profiIe启动hdfsstart-dfs.sh六、F1.ume安装6.1 安装1 .解压tar-ZXVfaPaChc-fIumcT.6.O-bin.tar.gzambowhadoopNode3f1.umeT.6.0$tar-zxvfapache-fIume-1. 6.O-bin.tar.gz-C7app2 .然后进入f1.ume的目录,修改Conf下的f1.umc-cnv.sh,配置JAVAJIOMEexpor

18、tJVAJIOME=homeambowappjdk1.8.O1213 .配置.bash-ProfiIe文件exportF1.1.fE-HOME=homeambowappf1.ume-1.6.OexprotPATH=$PATH:$F1.UMEJioME/bin七、Kafka安装:7.1安装I.下载Apachekafka官方:http:/kafka.apache,o1.wn1.oads.htm1.Sca1.a2.11-kafka_2.11-0.10.2.0.tgz(asc,md5)注:当SCaIa用的是2.11那Kafka选择kafka_2.11-0.102.O.10.2才是Kafka的版本Kaf

19、ka集群安装:1 .安装JDK&配置JAVAIOME2 .安装Zookeeper参照ZOokeCPCr官网搭建一个ZK集群,并启动ZK臬群。3 .解压Kafka安装包ambowhadoopNode1ambow$tar-zxvfkafka_2.11一O.10.2.1.tgz-CVapp/4.配置环境变量exportKKAH()ME-homcambowapp/kafka2.11-0.10.2.1exportPTH=PTH:$KAFKAK)ME/bin5.修改配置文件config/server.propertiesviserver,properties#为依次增长的:0、1、2、3、4,集群中节点唯

20、一idbroker,id-0#删除主题的配置,默认是fa1.se生产环境设为fa1.sede1.ete,topic,enab1.e=true#监听的主机及端口号各节点改为本机相应的hostName1isteners=P1.AINTEXT:/hadoopNode1:9092邓afka的消息数据存储路径1.og.dirs-7homcambowkafka1.)ataIogs#创建主题的时候,默认有1个分区num.partitions=3#指定ZooKeeper集群列表,各节点以逗号分zookeeper,connect-hadoopode1.:2181,hadoopNode2:2181,hadoopN

21、ode3:2181,hadoopNode4:2181.hadoopNode5:21816 .分发至各个节点ambowhadoopNode1app$scp-rkafka2.11-0.10.2.1ambowhadoopNode5:VappambowhadoopNode1app$scp-rkafka2.11-0.10.2.1ambowhadoopNode4:appambowhadoopNode1app$scp-rkafka_2.11-0.10.2.1ambowhadoopNode3:VappambowhadoopNode1app$scp-rkafka2.11-0.10.2.1ambowhadoopN

22、ode2:VappambowhadoopNode1app$scp-r7.bash_profi1.eambowMIadoOPNode5:、ambowhadoopNode1app1$scp-r/.bashprofiIcambowhadoopNodc4:ambowhadoopNode1app:$scp-r.bash_profiIeambowWhadOOPNode3:,、ambowhadoopNode1app:$scp-r.bash_profi1.eambowhadoopNode2:source/.bash_profiIe7 .修改各个节点的配置文件:为依次增长的:0、1、2、3、4,集群中节点唯一idbroker,id-0力监听的主机及端口号各节点改为本机相应的hos1.Name1isteners-P1.AINTEXThadoopNode1:90928 .各台节点上启动Kafka服务ambowhadoopNode1app$kafka-server-start.sh$KAFK.*1.1.OME/config/server.properties&注:要先启动各节点ZOOkeePerZkServ1.et.shstartambowhadoopNodc1app$kafka-SCrVer-Stop.sh

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > IT计算机 > 服务器

宁ICP备18001539号-1