logo资料库

大数据技术之Ambari.docx

第1页 / 共22页
第2页 / 共22页
第3页 / 共22页
第4页 / 共22页
第5页 / 共22页
第6页 / 共22页
第7页 / 共22页
第8页 / 共22页
资料共22页,剩余部分请下载后查看
第1章 Ambari简述
1.1 什么是Ambari
1.2 Ambari的功能
第2章 环境准备
2.1 虚拟机准备
2.2 关闭SELINUX
2.3 安装JDK
2.4 SSH免密登录
2.5 修改yum源为阿里云镜像
2.6 安装ntp
2.7 关闭Linux的THP服务
2.8 配置UMASK
2.9 禁止离线更新
第3章 安装Ambari集群
3.1 制作本地源
3.1.1 配置HTTPD 服务
3.1.2 安装工具
3.1.3 将下载的3个tar包解压
3.1.4 创建本地源
3.1.5 将Ambari存储库文件下载到安装主机上的目录中
3.1.6 修改配置文件,配置为本地源
3.2 安装MySQL
3.3 安装Ambari
3.4 在MySQL中创建数据库
3.5 配置Ambari
3.6 启动Ambari
第4章 HDP集群部署
4.1 集群搭建
4.1.1进入登录页面
4.1.2 点击Launch Install Wizard
4.1.3 设置集群名称
4.1.4选择版本和存储库
4.1.5 填写本地库地址
4.1.6 填写主机地址以及主节点的id.rsa文件
4.1.7 等待安装
4.1.8 选择服务
4.1.9 选择每台机器的角色
4.1.10 设置从节点
4.1.11 输入两次admin
4.1.12 继续
4.1.13 等待服务安装和启动
4.2 安装Hive
4.2.1 在/path/to/mysql/目录下放置Mysql驱动,并重命名为:mysql-con
4.2.2 执行ambari-server setup
4.2.3 点击添加服务
4.3.4 选择hive
4.3.5 分配节点
4.3.6 分配从属和客户端
4.3.7 配置hive数据库连接
4.3.8 点击下一步
4.3.9 等待安装
4.3 配置HDFS-HA
4.3.1 添加服务
4.3.2 填写nameservice名称
4.3.3角色分配
4.3.4 直接下一步
4.3.5 安装提示执行命令
4.3.6 安装组件
4.3.7 根据页面提示操作
4.3.8 等待启动组件
4.3.9 安装页面提示初始化NameNode HA
4.3.10 等待完成
尚硅谷大数据技术之 Ambari 尚硅谷大数据技术之 Ambari (作者:尚硅谷大数据研发部) 版本:V1.0 第 1 章 Ambari 简述 1.1 什么是 Ambari Apache Ambari 项目旨在通过开发用于配置,管理和监控 Apache Hadoop 集群的软件来 简化 Hadoop 管理。Ambari 提供了一个直观,易用的 Hadoop 管理 Web UI。 1.2 Ambari 的功能 提供了跨任意数量的主机安装 Hadoop 服务的分步向导。 处理群集的 Hadoop 服务配置。 提供集中管理,用于在整个集群中启动,停止和重新配置 Hadoop 服务。 提供了一个仪表板,用于监控 Hadoop 集群的运行状况和状态。 利用 Ambari 指标系统进行指标收集。 利用 Ambari Alert Framework 进行系统警报,并在需要您注意时通知您(例如,节点出 现故障,剩余磁盘空间不足等)。 第 2 章 环境准备 注意:以下操作三台机器都需要进行 2.1 虚拟机准备 克隆三台虚拟机(hadoop102、hadoop103、hadoop104),配置好对应主机的网络 IP、 主机名称、关闭防火墙。 [root@hadoop102 ~]# chkconfig iptables off [root@hadoop102 ~]# service iptables stop [root@hadoop102 ~]# chkconfig --list iptables iptables 0:关闭 1:关闭 2:关闭 3:关闭 4:关闭 5:关闭 6:关闭 2.2 关闭 SELINUX [root@hadoop102 ~]# vim /etc/sysconfig/selinux 将 SELINUX=enforcing 改为 SELINUX=disabled 执行该命令后重启机器生效 2.3 安装 JDK 1)在 hadoop102 的/opt 目录下创建 module 和 software 文件夹 更多 Java –大数据 –前端 –python 人工智能资料下载,可百度访问:尚硅谷官网
[root@hadoop102 opt]# mkdir module [root@hadoop102 opt]# mkdir software 2)用 SecureCRT 将 jdk-8u144-linux-x64.tar.gz 导入到 hadoop102 的/opt/software 目录下 尚硅谷大数据技术之 Ambari 3)在 Linux 系统下的 opt 目录中查看软件包是否导入成功 [root@hadoop102 software]$ ls jdk-8u144-linux-x64.tar.gz 4)解压 JDK 到/opt/module 目录下 [root@hadoop102 software]$ tar -zxvf jdk-8u144-linux-x64.tar.gz -C /opt/module/ 5)配置 JDK 环境变量 (1)先获取 JDK 路径 [root@hadoop102 jdk1.8.0_144]$ pwd /opt/module/jdk1.8.0_144 (2)打开/etc/profile 文件 [root@hadoop102 software]$ vi /etc/profile 在 profile 文件末尾添加 JDK 路径 #JAVA_HOME export JAVA_HOME=/opt/module/jdk1.8.0_144 export PATH=$PATH:$JAVA_HOME/bin (3)保存后退出 :wq (4)让修改后的文件生效 [root@hadoop102 jdk1.8.0_144]$ source /etc/profile 6)测试 JDK 是否安装成功 [root@hadoop102 jdk1.8.0_144]# java -version java version "1.8.0_144" 7)将 hadoop102 中的 JDK 和环境变量分发到 hadoop103、hadoop104 两台主机 [root@hadoop102 opt]# xsync /opt/module/ [root@hadoop102 opt]# xsync /etc/profile 分别在 hadoop103、hadoop104 上 source 一下 [root@hadoop103 ~]$ source /etc/profile [root@hadoop104 ~]# source /etc/profile 2.4 SSH 免密登录 配置 hadoop102 对 hadoop102、hadoop103、hadoop104 三台主机的免密登陆。 1)生成公钥和私钥: [root@hadoop102 .ssh]$ ssh-keygen -t rsa 然后敲(三个回车),就会生成两个文件 id_rsa(私钥)、id_rsa.pub(公钥) 2)将公钥拷贝到要免密登录的目标机器上 [root@hadoop102 .ssh]$ ssh-copy-id hadoop102 更多 Java –大数据 –前端 –python 人工智能资料下载,可百度访问:尚硅谷官网
[root@hadoop102 .ssh]$ ssh-copy-id hadoop103 [root@hadoop102 .ssh]$ ssh-copy-id hadoop104 尚硅谷大数据技术之 Ambari 2.5 修改 yum 源为阿里云镜像 [root@hadoop102 yum.repos.d]# /etc/yum.repos.d/CentOS-Base.repo.bk mv /etc/yum.repos.d/CentOS-Base.repo [root@hadoop102 wget http://mirrors.aliyun.com/repo/Centos-6.repo yum.repos.d]# -O /etc/yum.repos.d/CentOS-Base.repo //把服务器的包下载到本地缓存 [root@hadoop102 yum.repos.d]# yum makecache 2.6 安装 ntp [root@hadoop102 ~]# yum install -y ntp [root@hadoop102 ~]# chkconfig --list ntpd [root@hadoop102 ~]# chkconfig ntpd on [root@hadoop102 ~]# service ntpd start 2.7 关闭 Linux 的 THP 服务 如果不关闭 transparent_hugepage,HDFS 会因为这个性能严重受影响。 关闭 transparent_hugepage 方法是: [root@hadoop102 ~]# vim /etc/grub.conf 添加 transparent_hugepage=never [root@hadoop102 ~]# 添加: if test -f /sys/kernel/mm/transparent_hugepage/defrag; then vim /etc/rc.local echo never > /sys/kernel/mm/transparent_hugepage/defrag fi if test -f /sys/kernel/mm/transparent_hugepage/enabled; then echo never > /sys/kernel/mm/transparent_hugepage/enabled fi exit 0 重启之后,用下面的命令检查: [root@hadoop102 yum.repos.d]# cat /sys/kernel/mm/redhat_transparent_hugepage/enabled always madvise [never] 有 [never]则表示 THP 被禁用 2.8 配置 UMASK 设定用户所创建目录的初始权限 [root@hadoop102 ~]# umask 0022 2.9 禁止离线更新 vim /etc/yum/pluginconf.d/refresh-packagekit.conf 修改:enabled=0 更多 Java –大数据 –前端 –python 人工智能资料下载,可百度访问:尚硅谷官网
尚硅谷大数据技术之 Ambari 第 3 章 安装 Ambari 集群 注意:以下操作主节点操作即可 3.1 制作本地源 制作本地源是因为在线安装 Ambari 太慢。制作本地源只需在主节点上进行。 3.1.1 配置 HTTPD 服务 配置 HTTPD 服务到系统层使其随系统自动启动 [root@hadoop102 ~]# chkconfig httpd on [root@hadoop102 ~]# service httpd start 3.1.2 安装工具 安装本地源制作相关工具 [root@hadoop102 ~]# yum install yum-utils createrepo yum-plugin-priorities -y [root@hadoop102 ~]# vim /etc/yum/pluginconf.d/priorities.conf 添加 gpgcheck=0 3.1.3 将下载的 3 个 tar 包解压 [root@hadoop102 software]# tar /var/www/html/ -zxvf /opt/software/ambari-2.5.0.3-centos6.tar.gz -C [root@hadoop102 software]mkdir /var/www/html/hdp [root@hadoop102 software]# tar /var/www/html/hdp -zxvf /opt/software/HDP-2.6.0.3-centos6-rpm.tar.gz -C [root@hadoop102 software]# tar -zxvf /opt/software/HDP-UTILS-1.1.0.21-centos6.tar.gz -C /var/www/html/hdp 3.1.4 创建本地源 [root@hadoop102 software]# cd /var/www/html/ [root@hadoop102 html]# createrepo ./ 3.1.5 将 Ambari 存储库文件下载到安装主机上的目录中 [root@hadoop102 http://public-repo-1.hortonworks.com/ambari/centos6/2.x/updates/2.6.1.5/ambari.repo /etc/yum.repos.d/ambari.repo yum.repos.d]# wget -nv -O 3.1.6 修改配置文件,配置为本地源 修改 ambari.repo,配置为本地源 [root@hadoop102 html]# vim /etc/yum.repos.d/ambari.repo #VERSION_NUMBER=2.6.1.5-3 [ambari-2.6.1.5] name=ambari Version - ambari-2.6.1.5 baseurl=http://hadoop102/ambari/centos6/ 更多 Java –大数据 –前端 –python 人工智能资料下载,可百度访问:尚硅谷官网
尚硅谷大数据技术之 Ambari gpgcheck=0 gpgkey=http://hadoop102/ambari/centos6/RPM-GPG-KEY/RPM-GPG-KEY-Jenkins enabled=1 priority=1 修改 hdp-util.repo,配置为本地源 [root@hadoop102 hdp]# vim /var/www/html/hdp/hdp-util.repo [HDP-UTILS-1.1.0.21] name=Hortonworks Data Platform Version - HDP-UTILS-1.1.0.21 baseurl=http://hadoop102/hdp/ gpgcheck=0 enabled=1 priority=1 修改 hdp.repo,配置为本地源 [root@hadoop102 centos6]# vim /var/www/html/hdp/HDP/centos6/hdp.repo #VERSION_NUMBER=2.6.0.3-8 [HDP-2.6.0.3] name=HDP Version - HDP-2.6.0.3 baseurl=http://hadoop102/hdp/HDP/centos6/ gpgcheck=0 gpgkey=http://hadoop102/hdp/HDP/centos6/RPM-GPG-KEY/RPM-GPG-KEY-Jenkins enabled=1 priority=1 [HDP-UTILS-1.1.0.21] name=HDP-UTILS Version - HDP-UTILS-1.1.0.21 baseurl=http://hadoop102/hdp/ gpgcheck=0 gpgkey=http://hadoop102/hdp/RPM-GPG-KEY/RPM-GPG-KEY-Jenkins enabled=1 priority=1 [root@hadoop102 ~]# yum clean all [root@hadoop102 ~]# yum makecache 查看是否有 Ambari [root@hadoop102 ~]# yum repolist 查看 Ambari 与 HDP 资源的资源库。 也可以打开浏览器查看一下: http://hadoop102/ambari/centos6/ http://hadoop102/hdp/HDP/centos6/ http://hadoop102/hdp/ 3.2 安装 MySQL Ambari 使用的默认数据库是 PostgreSQL,用于存储安装元数据,可以使用自己安装 MySQL 数据库作为 Ambari 元数据库。 注意:一定要用 root 用户操作如下步骤;先卸载 MySQL 再安装 1)安装包准备 更多 Java –大数据 –前端 –python 人工智能资料下载,可百度访问:尚硅谷官网
尚硅谷大数据技术之 Ambari (1)查看 MySQL 是否安装 [root@hadoop102 桌面]# rpm -qa|grep mysql mysql-libs-5.1.73-7.el6.x86_64 (2)如果安装了 MySQL,就先卸载 [root@hadoop102 桌面]# rpm -e --nodeps mysql-libs-5.1.73-7.el6.x86_64 (3)解压 mysql-libs.zip 文件到当前目录 [root@hadoop102 software]# unzip mysql-libs.zip [root@hadoop102 software]# ls mysql-libs.zip mysql-libs (4)进入到 mysql-libs 文件夹下 [root@hadoop102 mysql-libs]# ll 总用量 76048 -rw-r--r--. 1 root root 18509960 3 月 26 2015 MySQL-client-5.6.24-1.el6.x86_64.rpm -rw-r--r--. 1 root root -rw-r--r--. 1 root root 55782196 3 月 26 2015 MySQL-server-5.6.24-1.el6.x86_64.rpm 3575135 12 月 1 2013 mysql-connector-java-5.1.27.tar.gz 2)安装 MySQL 服务器 (1)安装 MySQL 服务端 [root@hadoop102 mysql-libs]# rpm -ivh MySQL-server-5.6.24-1.el6.x86_64.rpm (2)查看产生的随机密码 [root@hadoop102 mysql-libs]# cat /root/.mysql_secret XrBwJEENp2yhVe4O (3)查看 MySQL 状态 [root@hadoop102 mysql-libs]# service mysql status (4)启动 MySQL [root@hadoop102 mysql-libs]# service mysql start 3)安装 MySQL 客户端 (1)安装 MySQL 客户端 [root@hadoop102 mysql-libs]# rpm -ivh MySQL-client-5.6.24-1.el6.x86_64.rpm (2)链接 MySQL [root@hadoop102 mysql-libs]# mysql -uroot -pXrBwJEENp2yhVe4O (3)修改密码 mysql>SET PASSWORD=PASSWORD('000000'); (4)退出 MySQL mysql>exit 4)MySQL 中 user 表中主机配置 配置只要是 root 用户+密码,在任何主机上都能登录 MySQL 数据库。 (1)进入 MySQL [root@hadoop102 mysql-libs]# mysql -uroot -p000000 (2)显示数据库 更多 Java –大数据 –前端 –python 人工智能资料下载,可百度访问:尚硅谷官网
尚硅谷大数据技术之 Ambari mysql>show databases; (3)使用 MySQL 数据库 mysql>use mysql; (4)展示 MySQL 数据库中的所有表 mysql>show tables; (5)展示 user 表的结构 mysql>desc user; (6)查询 user 表 mysql>select User, Host, Password from user; (7)修改 user 表,把 Host 表内容修改为% mysql>update user set host='%' where host='localhost'; (8)删除 root 用户的其他 host mysql> delete from user where Host='hadoop102'; delete from user where Host='127.0.0.1'; delete from user where Host='::1'; (9)刷新 mysql>flush privileges; (10)退出 mysql>quit; 3.3 安装 Ambari 1)安装 ambari-server [root@hadoop102 hdp]# yum install ambari-server 2) 拷贝 mysql 驱动 将 mysql-connector-java.jar 复制到/usr/share/java 目录下并改名为 mysql-connector-java.jar [root@hadoop102 hdp]# mkdir /usr/share/java [root@hadoop102 /opt/software/mysql-libs/mysql-connector-java-5.1.27/mysql-connector-java-5.1.27-bin.jar /usr/share/java/mysql-connector-java.jar 将 mysql-connector-java.jar 复 制 到 /var/lib/ambari-server/resources 目 录 下 并 改 名 为 hdp]# cp mysql-jdbc-driver.jar cp /usr/share/java/mysql-connector-java.jar hdp]# [root@hadoop102 /var/lib/ambari-server/resources/mysql-jdbc-driver.jar 修改 ambari.properties 文件 [root@hadoop102 hdp]# vim /etc/ambari-server/conf/ambari.properties 添加 server.jdbc.driver.path=/usr/share/java/mysql-connector-java.jar 更多 Java –大数据 –前端 –python 人工智能资料下载,可百度访问:尚硅谷官网
尚硅谷大数据技术之 Ambari 3.4 在 MySQL 中创建数据库 1)创建 ambari 库 [root@hadoop102 hdp]# mysql -u root -p000000 mysql >create database ambari; 2)使用 Ambari 自带脚本创建表 mysql >use ambari; mysql>source /var/lib/ambari-server/resources/Ambari-DDL-MySQL-CREATE.sql; 3)赋予用户 root 权限: mysql> grant all privileges on *.* to 'root'@'%' identified by '000000'; 4)刷新 mysql> flush privileges; 3.5 配置 Ambari 执行 [root@hadoop102 hdp]# ambari-server setup 下面是配置执行流程,按照提示操作 1) 提示是否自定义设置。输入:y Customize user account for ambari-server daemon [y/n] (n)? y 2)ambari-server 账号。 Enter user account for ambari-server daemon (root): 如果直接回车就是默认选择 root 用户 3)设置 JDK。输入:3 Checking JDK... Do you want to change Oracle JDK [y/n] (n)? y [1] Oracle JDK 1.8 + Java Cryptography Extension (JCE) Policy Files 8 [2] Oracle JDK 1.7 + Java Cryptography Extension (JCE) Policy Files 7 [3] Custom JDK ================================================================== ============ Enter choice (1): 3 如果上面选择 3 自定义 JDK,则需要设置 JAVA_HOME。输入:/opt/module/jdk1.8.0_144 WARNING: JDK must be installed on all hosts and JAVA_HOME must be valid on all hosts. WARNING: JCE Policy files are required for configuring Kerberos security. If you plan to use Kerberos,please make sure JCE Unlimited Strength Jurisdiction Policy Files are valid on all hosts. Path to JAVA_HOME: /opt/module/jdk1.8.0_144 Validating JDK on Ambari Server...done. Completing setup... 4)数据库配置。选择:y Configuring database... Enter advanced database configuration [y/n] (n)? y 5)选择数据库类型。输入:3 Configuring database... ================================================================== 更多 Java –大数据 –前端 –python 人工智能资料下载,可百度访问:尚硅谷官网
分享到:
收藏