一、概述

Apache Ambari 是 Hortonworks 贡献给Apache开源社区的顶级项目,它是一个依据web的东西,用于装置、装备、办理和监督 Hadoop 集群。 Ambari 目前已支撑大多数 Hadoop 组件,包含 HDFS、MapReduce、Hive、Pig、 Hbase、Zookeper、Sqoop 和 Hcatalog 等。

Apache Ambari 支撑 HDFS、MapReduce、Hive、Pig、Hbase、Zookeper、Sqoop 和 Hcatalog 等的会集办理。也是 5 个顶级 hadoop 办理东西之一。

Ambari 首要取得了以下成果:

  • 经过一步一步的装置导游简化了集群供给。

  • 预先装备好要害的运维目标(metrics),能够直接检查 Hadoop Core(HDFS 和 MapReduce)及相关项目(如 HBase、Hive 和 HCatalog)是否健康。

  • 支撑作业与使命履行的可视化与剖析,能够更好地检查依靠和功用。

  • 经过一个完好的 RESTful API 把监控信息露出出来,集成了现有的运维东西。

  • 用户界面十分直观,用户能够轻松有效地检查信息并操控集群。

Ambari 运用 Ganglia 搜集度量目标,用 Nagios 支撑体系报警,当需求引起办理员的重视时(比方,节点停机或磁盘剩下空间不足等问题),体系将向其发送邮件。

此外,Ambari 能够装置安全的(依据 Kerberos)Hadoop 集群,以此完结了对 Hadoop 安全的支撑,供给了依据人物的用户认证、授权和审计功用,并为用户办理集成了 LDAP 和 Active Directory。

  • GitHub地址:github.com/apache/amba…
  • 官方地址:ambari.apache.org/
  • Ambari WIKI:cwiki.apache.org/confluence/…
  • Hortonworks社区:community.hortonworks.com/index.html
  • ​docs.hortonworks.com/HDPDocument…

【大数据】大数据 Hadoop 管理工具 Apache Ambari(HDP)
【温馨提示】

从2021年1月开端,ambari 开端收费了,假如想运用 ambari,要么依据源码自己编译 ambari.apache.org/, 要么给钱下载 www.cloudera.com/products/op…

二、 Ambari 与 HDP 联系

Ambari和HDP(Hortonworks Data Platform)是用于办理和运维Hadoop集群的两个要害组件。

  • Ambari 是一个开源的集群办理东西,供给了一个直观的Web界面,用于简化Hadoop集群的装备、办理和监控。经过Ambari,办理员能够轻松地进行集群布置、服务装备、扩展和监控。它还供给了一些高级功用,如自动服务康复、告警办理和权限操控等。

  • HDP 是Hortonworks供给的一个完好的数据渠道,依据开源的Apache Hadoop生态体系构建而成。它包含了一系列的中心组件,如HDFS(Hadoop分布式文件体系)、YARN(Yet Another Resource Negotiator)、MapReduce、Hive、HBase、Spark、Pig等。HDP经过集成这些组件,为用户供给了一个安稳、可靠和易于办理的Hadoop渠道。

  • AmbariHDP 之间的联系是,Ambari作为一个集群办理东西,能够用于办理和运维HDP所构建的Hadoop集群。经过Ambari,办理员能够在HDP集群上进行各种操作,如增加/删去节点、装备服务参数、监控集群健康状况等。一同,Ambari还供给了一些附加功用,如服务自动发现、日志聚合和可视化等,以进步Hadoop集群的可办理性和可视化性。

总结起来,Ambari是用于办理和运维Hadoop集群的东西,而HDP是一个完好的数据渠道,依据Hadoop生态体系构建而成。Ambari能够用于办理和操作HDP集群,供给了一种简化和会集化的方法来办理Hadoop集群中的服务和组件。【温馨提示】CDH 和 HDP 都现已开端收费了。

简单来讲就是 Ambari 比方 CDH 中的Cloudera managerHDP 就如 CDH 一样。如想了解CDH的小伙伴能够观看我这篇文章:大数据Hadoop之——Cloudera Hadoop(CM 6.3.1+CDH 6.3.2环境布置)

三、Ambari 与 Cloudera manager 的比照

Ambari 和 Cloudera Manager 都是用于办理和监控Hadoop集群的东西,它们在功用和特点上有一些差异。以下是Ambari和Cloudera Manager之间的一些比照:

1)开源性

  • Ambari:Ambari是一个开源项目,由Apache软件基金会进行开发和保护。
  • Cloudera Manager:Cloudera Manager是Cloudera公司的产品,它是依据开源Hadoop分发版别构建的,但Cloudera Manager自身不是开源的。

2)支撑的发行版

  • Ambari:Ambari能够与各种Hadoop发行版集成,包含Apache Hadoop、Hortonworks Data Platform(HDP)和IBM Spectrum Scale。

  • Cloudera Manager:Cloudera Manager首要用于办理Cloudera发行版(Cloudera Distribution including Apache Hadoop,CDH)。

3)用户界面

  • Ambari:Ambari供给了一个直观的Web界面,用于装备、办理和监控Hadoop集群。它的界面相对简洁,易于运用。
  • Cloudera Manager:Cloudera Manager也供给了一个Web界面,但它更加具体和功用丰富。它供给了更多的集群办理和调优功用,适用于大型和杂乱的集群环境。

4)功用和扩展性

  • Ambari:Ambari供给了根本的集群办理功用,例如组件装置、装备办理、监控和警报。它还支撑Ambari Views,答运用户经过自界说视图扩展和定制功用。
  • Cloudera Manager:Cloudera Manager供给了广泛的集群办理和运维功用,包含自动化装置、装备办理、毛病扫除、功用优化等。它还支撑一些高级特性,例如数据备份和康复、Kerberos集成、高可用性装备等。

5)社区支撑和生态体系

  • Ambari:Ambari是Apache软件基金会的项目,具有巨大的开源社区支撑和活泼的开发者社区。它与其他Apache生态体系项目有良好的集成。

  • Cloudera Manager:Cloudera Manager作为Cloudera公司的产品,供给了商业支撑和服务,并与Cloudera的其他产品和解决方案集成。

综上所述,Ambari和Cloudera Manager都是功用强大的集群办理东西,但它们在开源性、支撑的发行版、用户界面、功用和生态体系等方面存在一些差异。挑选合适的东西取决于你的具体需求、集群规模和技能栈。

四、Apache Ambari 术语

  • Service(服务):Service是指 Hadoop 堆栈中的服务。 HDFS、HBase 和 Zookeeper等是服务的⽰例。⼀个服务可能有多个组件(例如,HDFS 有 NameNode、Secondary NameNode、DataNode 等)。服务也能够只是⼀个客⼾端(例如,Pig没有任何守护程序服务,但只要⼀个客⼾端库)

  • Component(组件):Service由⼀个或多个Component组成。例如,HDFS 有 3 个组件:NameNode、DataNode 和 Secondary NameNode。组件可能是可选的。⼀个组件能够跨越多个节点(例如,多个节点上的 DataNode 实例)。

  • Node/Host(节点):Node/Host是指集群中的⼀台机器。

  • Node-Component(节点组件):Node-Component是指特定节点上的组件实例。例如,特定节点上的特定 DataNode 实例是节点组件。

  • Operation(操作):Operation是指在集群上履行的⼀组更改或操作,以满⾜⽤⼾恳求或在集群中完结所需的状况更改。例如,发动服务是⼀项操作,运转冒烟测验是⼀项操作。假如⽤⼾恳求向集群增加新服务而且还包含运转冒烟测验,那么满⾜⽤⼾恳求的整个操作集将构成⼀个操作。

  • Task(使命):Task是发送到节点履行的⼯作单元。Task是节点作为Action的⼀部分的⼯作。例如,“Action”能够包含在节点 Node1上装置DataNode,在节点 Node2 上装置DataNode和SNameNode。在这种状况下,Node1 的“使命”将是装置⼀个DataNode,⽽ Node2的“使命”将是装置⼀个DataNode和⼀个SNameNode。

  • Stage(阶段):Stage是指完结⼀项操作所需的⼀组使命,而且彼此独⽴;同⼀阶段的一切使命都能够跨不同节点并行运转。

  • Action(动作):Action由⼀台机器或⼀组机器上的⼀个或多个使命组成。每个动作都有动作 id 跟踪,而且节点⾄少在动作的粒度上报告状况。⼀个动作能够被认为是⼀个正在履行的阶段。

  • Stage Plan(阶段方案):⼀个操作一般由不同机器上的多个使命组成,它们一般具有依靠联系,要求它们以特定顺序运转。有些使命需求先完结,然后才能组织其他使命。因此,⼀个操作所需的使命能够划分为多个阶段,每个阶段必须在下⼀个阶段之前完结,但同⼀阶段的一切使命能够跨不同节点并行调度。

  • Manifest(清单):Manifest是指发送到节点履行的使命的界说。清单必须彻底界说使命而且必须是可序列化的。清单也能够保存在磁盘上以进行康复或记载。

  • Role(⻆⾊):Role映射到组件(例如,NameNode、DataNode)或操作阶段方案(例如,HDFS rebalancing、HBase smoke test、其他办理指令等)

五、Apache Ambari 中心组件介绍

Apache Ambari 是一个开源的集群办理东西,用于简化、办理和监控Hadoop生态体系中的大数据集群。它供给了一个直观的Web界面,运用户能够轻松地装备、布置和办理Hadoop集群的中心组件。下面是Ambari的一些中心组件的介绍:

  • Ambari Server:Ambari Server是Ambari的首要组件,担任整个集群的办理和操控。它供给了一个Web界面,答应办理员装备和监控集群的各个方面。Ambari Server担任搜集和显现有关集群的信息,以及在需求时履行操作,例如装置、发动、中止和晋级组件。

  • Ambari Agent:Ambari Agent是在集群中每个主机上运转的署理程序。它担任与Ambari Server通讯,并履行Ambari Server下发的指令。Ambari Agent在各个主机上装置和办理组件,搜集主机的目标数据,并将其发送给Ambari Server进行监控和剖析。

  • Ambari Web:Ambari Web供给了一个用户友好的Web界面,答应办理员和操作员直接与Ambari交互。经过Ambari Web,用户能够轻松地装备和办理集群的各个方面,包含增加/删去主机、装置/晋级组件、装备服务和办理用户权限等。

  • Ambari Database:Ambari Database是Ambari Server运用的后端数据库,用于存储集群的元数据和装备信息。常见的数据库选项包含MySQL、PostgreSQL和Oracle。Ambari Database存储有关集群拓扑、组件装备、主机信息和用户权限等的数据。

  • Ambari Metrics:Ambari Metrics组件担任搜集和存储集群的目标数据。它运用开源的时刻序列数据库,例如Apache HBase或Apache Phoenix,将各个组件和主机的目标数据耐久化存储起来。Ambari Metrics还供给了一个Web界面,用于检查和剖析集群的目标数据。

  • Ambari Views:Ambari Views是Ambari的插件机制,答运用户经过自界说视图扩展Ambari的功用。它供给了一种可扩展的方法,答运用户依据自己的需求增加和集成自界说的Web界面或运用程序。

这些是Ambari的一些中心组件,它们一同协作,运用户能够方便地办理和监控Hadoop集群的各个方面。经过Ambari,用户能够简化集群办理使命,并供给可视化的界面来监控集群的运转状况和功用。

六、Apache Ambari 架构

Ambari结构选用的是Server/Client的形式,首要由两部分组成:ambari-agentambari-server 。ambari依靠其它现已老练的东西,例如其ambari-server 就依靠 python ,而 ambari-agent 还一同依靠ruby, puppetfacter等东西,还有它也依靠一些监控东西 nagiosganglia 用于监控集群状况。

  • Ambari-server:首要办理布置在每个节点上的办理监控程序。
  • Ambari-agent:布置在监控节点上运转的办理监控程序。
  • ambari-web:作为用户与 Ambari server 交互的。

【大数据】大数据 Hadoop 管理工具 Apache Ambari(HDP)

1)Ambari-agent 内部架构

Ambari-agent是一个无状况的,其功用分两部分:

  • 采集地点节点的信息而且汇总发送心跳发送汇报给ambari-server。
  • 处理ambari-server的履行恳求。

因此它有两种队列:

  • 消息队列 Message Queue,或称为 ResultQueue。包含节点状况信息(包含注册信息)和履行成果信息,而且汇总后经过心跳发送给ambari-server。

  • 操作队列 ActionQueue。用于接纳 ambari-server 发送过来的状况操作,然后交给履行器调用puppet或Python脚本等模块履行使命。

【大数据】大数据 Hadoop 管理工具 Apache Ambari(HDP)

2)Ambari-server 内部架构

三种状况:

  • Live Cluster State:集群现有状况,各个节点汇报上来的状况信息会更改该状况;
  • Desired State:用户期望该节点所在状况,是用户在页面进行了一系列的操作,需求更改某些服务的状况,这些状况还没有在节点上发收效果;
  • Action State:操作状况,是状况改变时的恳求状况,也能够看作是一种中间状况,这种状况能够辅佐 LiveCluster StateDesired State 状况改变。

【大数据】大数据 Hadoop 管理工具 Apache Ambari(HDP)

  • Heartbeat Handler 模块用于接纳各个agent的心跳恳求(心跳恳求里边首要包含两类信息:节点状况信息和回来的操作成果),把节点状况信息传递给FSM状况机去保护着该节点的状况,而且把回来的操作成果信息回来给Action Manager去做进一步的处理。

  • Coordinator 模块又能够称为API handler,首要在接纳WEB端操作恳求后,会检查它是否符合要求,stageplanner分解成一组操作,最终供给给ActionManager去完结履行操作。

因此,从上图就能够看出,Ambari-Server的一切状况信息的保护和改变都会记载在数据库中,用户做一些更改服务的操作都会在数据库上做一些相应的记载,一同,agent经过心跳来取得数据库的改变历史。

3)Ambari-web 内部架构

Ambari-web 运用了一个流行的前端 Embar.js MVC 结构完结,Embar.js 是一个 TodoMVC 结构,它涵盖了如今典型的单页面运用(single page application)简直一切的行为。运用了 nodejs。运用 brunch 作为项目的构建办理东西。

Brunch 是一个超快的HTML5构建东西。它有如下功用:

  1. 编译你的脚本、模板、款式、链接它们。

  2. 将脚本和模板封装进common.js/AMD模块里,链接脚本和款式。

  3. 为链接文件生成源地图,复制资源和静态文件。

  4. 经过减缩代码和优化图片来收缩输出,看管你的文件更改。

  5. 并经过操控台和体系提示通知你错误。

Nodejs 是一个依据Chrome JavaScript 运转时树立的一个渠道,用来方便的搭建快速的易于扩展的网络运用,NodeJS 凭借事情驱动,非阻塞I/O模型变得轻量和高效,十分合适运转在分布式设备的数据密集型的实时运用。

1、Ambari-web 目录结构

目录或文件 描绘
app/ 首要运用程序代码。包含Ember中的view、templates、controllers、models、routes
config.coffee Brunch运用程序生成器的装备文件
package.json Npm包办理装备文件
test/ 测验文件
vendor/ Javascript库和款式表适用第三方库。

2、Ambari-web/app/

目录或文件 描绘
assets/ 静态文件
controllers/ 操控器
data/ 数据
mappers/ JSON数据到Client的Ember实体的映射
models MVC中的Model
routes/ 路由
styles 款式文件
views 试图文件
templates/ 页面模板
app.js Ember主程序文件
config.js 装备文件

七、Apache Ambari 装置

1)前期准备

1、机器信息

IP 主机名 人物
192.168.182.110 local-168-182-110 master
192.168.182.111 local-168-182-111 slave
192.168.182.112 local-168-182-112 slave

2、装备 /etc/hosts

192.168.182.110 local-168-182-110
192.168.182.111 local-168-182-111
192.168.182.112 local-168-182-112

3、装备互信

### 在master节点上生成公钥
ssh-keygen -t rsa -P ""
### 参数解释:
# -t 参数表明生成算法,有rsa和dsa两种;
# -P表明运用的暗码,这儿运用""空字符串表明无暗码。
cd ~/.ssh
cat id_rsa.pub >> authorized_keys
ssh-copy-id -i ~/.ssh/id_rsa.pub local-168-182-111
ssh-copy-id -i ~/.ssh/id_rsa.pub local-168-182-112

4、装备时刻同步(十分重要)

yum install chrony -y
# 装备
echo 'server ntp1.aliyun.com iburst' >> /etc/chrony.conf
systemctl start chronyd
systemctl enable chronyd
# 检查时刻同步状况
chronyc sources -v

5、封闭防火墙

systemctl disable firewalld
systemctl stop firewalld

6、禁用 SELINUX

# 临时封闭
setenforce 0
# 永久禁用
sed -i 's/^SELINUX=enforcing$/SELINUX=disabled/' /etc/selinux/config

2)装置 JDK

官网下载:www.oracle.com/java/techno…

百度云下载

链接:pan.baidu.com/s/1-rgW-Z-s… 提取码:8888

# 修改/etc/profile,文末刺进以下内容:
# set java
export JAVA_HOME=/usr/java/jdk1.8.0_212
export PATH=$JAVA_HOME/bin:$PATH

加载收效

source /etc/profile

3)装置 mysql

假如想快速装置MySQL,仅仅只是学习或测验用,能够参考我这篇经过docker布置MySQL的文章:经过 docker-compose 快速布置 MySQL保姆级教程

# 登录mysql
mysql -uroot -p12346

4)获取 Ambari 装置包

编译过程中可能会遇到许多问题,这儿就不一一列举了,可重视我大众号 大数据与云原生技能共享 回复 hdp 获取已编译好的装置包。

其中装置包说明:

  • Ambari:WEB运用程序,后台为Ambari Server,担任与HDP布置的集群工作节点进行通讯,集群操控节点包含Hdfs,Spark,Zk,Hive,Hbase等等。
  • HDP:HDP包中包含了许多常用的东西,比方Hadoop,Hive,Hbase,Spark等
  • HDP-UTIL:是HDP的另一个软件包,它包含了一些额定的实用东西和服务,用于增强HDP的功用和办理能力。这些实用东西和服务能够与HDP集群一同运用,以供给更多的功用和东西支撑。
  • HDP-GPL:是HDP的一部分,它包含了HDP中运用的开源软件的源代码,这些软件遵循GPL(GNU通用公共许可证)或其他开源许可证。

5)装置 httpd 搭建本地装置源

### 1、装置httpd
yum -y install httpd
### 2、在/var/www/html下创立ambari和hdp目录
cd /var/www/html/
mkdir ambari
### 3、上传资源包
# 上传ambari-2.7.5.0-centos7.tar、HDP-3.1.5.0-centos7-rpm.tar、HDP-GPL-3.1.5.0-centos7-gpl.tar、HDP-UTILS-1.1.0.22-centos7.tar
### 4、解压到指定目录
tar -zxvf /opt/apache/ambari/ambari-2.7.5.0-centos7.tar -C /var/www/html/ambari/
tar -zxvf /opt/apache/ambari/HDP-3.1.5.0-centos7-rpm.tar -C /var/www/html/ambari/
tar -zxvf /opt/apache/ambari/HDP-GPL-3.1.5.0-centos7-gpl.tar -C /var/www/html/ambari/
tar -zxvf /opt/apache/ambari/HDP-UTILS-1.1.0.22-centos7.tar -C /var/www/html/ambari/
### 5、发动httpd
systemctl restart httpd

web访问:

现在能够经过访问http://192.168.182.110/ambari/检查是否能成功访问

【大数据】大数据 Hadoop 管理工具 Apache Ambari(HDP)

6)装备Ambari+HDP本地yum源

1、 装置本地源制造相关东西

yum install -y yum-utils createrepo yum-plugin-priorities

2、装备 ambari.repo

# /etc/yum.repos.d/ambari.repo
#VERSION_NUMBER=2.7.5.0-72
[ambari-2.7.5.0]
#json.url = http://public-repo-1.hortonworks.com/HDP/hdp_urlinfo.json
name=ambari Version - ambari-2.7.5.0
baseurl=http://192.168.182.110/ambari/ambari/centos7/2.7.5.0-72/
gpgcheck=1
gpgkey=http://192.168.182.110/ambari/ambari/centos7/2.7.5.0-72/RPM-GPG-KEY/RPM-GPG-KEY-Jenkins
enabled=1
priority=1

3、装备 hdp.repo

# /etc/yum.repos.d/hdp.repo
#VERSION_NUMBER=3.1.5.0-152
[HDP-3.1.5.0]
name=HDP Version - HDP-3.1.5.0
baseurl=http://192.168.182.110/ambari/HDP/centos7/3.1.5.0-152/
gpgcheck=1
gpgkey=http://192.168.182.110/ambari/HDP/centos7/3.1.5.0-152/RPM-GPG-KEY/RPM-GPG-KEY-Jenkins
enabled=1
priority=1
[HDP-UTILS-1.1.0.22]
name=Hortonworks Data Platform Utils Version - HDP-UTILS-1.1.0.22
baseurl=http://192.168.182.110/ambari/HDP-UTILS/centos7/1.1.0.22/
gpgcheck=1
gpgkey=http://192.168.182.110/ambari/HDP-UTILS/centos7/1.1.0.22/RPM-GPG-KEY/RPM-GPG-KEY-Jenkins
enabled=1
priority=1

4、将创立好的文件拷贝到子节点

scp /etc/yum.repos.d/ambari.repo 192.168.182.111:/etc/yum.repos.d/
scp /etc/yum.repos.d/hdp.repo 192.168.182.111:/etc/yum.repos.d/
scp /etc/yum.repos.d/ambari.repo 192.168.182.112:/etc/yum.repos.d/
scp /etc/yum.repos.d/hdp.repo 192.168.182.112:/etc/yum.repos.d/

最终履行

yum clean all && yum makecache

6)开端装置 ambari

1、装置 ambari-server

yum -y install ambari-server

2、创立用户和数据库

#在mysql上创立 database ambari;
mysql -uroot -p123456
# 创立数据库
create database ambari;
create database ambari character set utf8 ;  
CREATE USER 'ambari'@'%'IDENTIFIED BY 'ambari';
GRANT ALL PRIVILEGES ON ambari.* TO 'ambari'@'%';
FLUSH PRIVILEGES;
# 创立数据库
create database hive;
#创立 hive用户
create database hive character set utf8 ;  
CREATE USER 'hive'@'%'IDENTIFIED BY 'hive';
GRANT ALL PRIVILEGES ON hive.* TO 'hive'@'%';
FLUSH PRIVILEGES;
# 创立 oozie 用户
create database oozie character set utf8 ;  
CREATE USER 'oozie'@'%'IDENTIFIED BY 'oozie';
GRANT ALL PRIVILEGES ON *.* TO 'oozie'@'%';
FLUSH PRIVILEGES;

3、将Ambari数据库脚本导入到数据库

#在mysql上创立 database ambari;
mysql -uroot -p123456
use ambari;
source /var/lib/ambari-server/resources/Ambari-DDL-MySQL-CREATE.sql

4、下载mysql驱动

下载地址:repo1.maven.org/maven2/mysq…

wget https://repo1.maven.org/maven2/mysql/mysql-connector-java/5.1.39/mysql-connector-java-5.1.39.jar
mkdir /usr/share/java
cp mysql-connector-java-5.1.39.jar /var/lib/ambari-server/resources/
cp mysql-connector-java-5.1.39.jar /usr/share/java/
cp mysql-connector-java-5.1.39.jar /usr/lib/ambari-server/

5、装备 ambari-server

[root@local-168-182-110 ambari]# ambari-server setup
Using python  /usr/bin/python
Setup ambari-server
Checking SELinux...
SELinux status is 'disabled'
Customize user account for ambari-server daemon [y/n] (n)? y
Enter user account for ambari-server daemon (root):root
Adjusting ambari-server permissions and ownership...
Checking firewall status...
Checking JDK...
[1] Oracle JDK 1.8 + Java Cryptography Extension (JCE) Policy Files 8
[2] Custom JDK
==============================================================================
Enter choice (1): 2
WARNING: JDK must be installed on all hosts and JAVA_HOME must be valid on all hosts.
WARNING: JCE Policy files are required for configuring Kerberos security. If you plan to use Kerberos,please make sure JCE Unlimited Strength Jurisdiction Policy Files are valid on all hosts.
Path to JAVA_HOME: /opt/jdk1.8.0_212
Validating JDK on Ambari Server...done.
Check JDK version for Ambari Server...
JDK version found: 8
Minimum JDK version is 8 for Ambari. Skipping to setup different JDK for Ambari Server.
Checking GPL software agreement...
GPL License for LZO: https://www.gnu.org/licenses/old-licenses/gpl-2.0.en.html
Enable Ambari Server to download and install GPL Licensed LZO packages [y/n] (n)? y
Completing setup...
Configuring database...
Enter advanced database configuration [y/n] (n)? y
Configuring database...
==============================================================================
Choose one of the following options:
[1] - PostgreSQL (Embedded)
[2] - Oracle
[3] - MySQL / MariaDB
[4] - PostgreSQL
[5] - Microsoft SQL Server (Tech Preview)
[6] - SQL Anywhere
[7] - BDB
==============================================================================
Enter choice (1): 3
Hostname (localhost): 192.168.182.110
Port (3306): 13306
Database name (ambari):
Username (ambari): ambari
Enter Database Password (bigdata):
Re-enter password:
Configuring ambari database...
Enter full path to custom jdbc driver: /usr/share/java/mysql-connector-java-5.1.39.jar
Configuring remote database connection properties...
WARNING: Before starting Ambari Server, you must run the following DDL directly from the database shell to create the schema: /var/lib/ambari-server/resources/Ambari-DDL-MySQL-CREATE.sql
Proceed with configuring remote database connection properties [y/n] (y)? y
Extracting system views...
ambari-admin-2.7.5.0.72.jar
....
Ambari repo file contains latest json url http://public-repo-1.hortonworks.com/HDP/hdp_urlinfo.json, updating stacks repoinfos with it...
Adjusting ambari-server permissions and ownership...
Ambari Server 'setup' completed successfully.

6、发动 ambari

ambari-server start

注意:假如出现Server not yet listening on http port 8080 after 50 seconds. Exiting异常履行以下句子

echo 'server.startup.web.timeout=120' >> /etc/ambari-server/conf/ambari.properties

浏览器访问: http://192.168.182.110:8080/ 默认登录用户:admin,暗码:admin

【大数据】大数据 Hadoop 管理工具 Apache Ambari(HDP)

7)经过 Ambari Web UI 布置大数据组件

【大数据】大数据 Hadoop 管理工具 Apache Ambari(HDP)

【第一步】设置集群称号

【大数据】大数据 Hadoop 管理工具 Apache Ambari(HDP)

【第二步】装备本地镜像仓库

【大数据】大数据 Hadoop 管理工具 Apache Ambari(HDP)
【大数据】大数据 Hadoop 管理工具 Apache Ambari(HDP)

【第三步】输入集群节点host(FQDN)和Ambari-Server节点SSH的私钥

【大数据】大数据 Hadoop 管理工具 Apache Ambari(HDP)
由于机器资源有限,只发动了一个节点
【大数据】大数据 Hadoop 管理工具 Apache Ambari(HDP)

【第四步】挑选需求装置的大数据组件

因我电脑资源有限,就挑选了一个了。小伙伴依据需求挑选对应的大数据组件。

【大数据】大数据 Hadoop 管理工具 Apache Ambari(HDP)

【第五步】Assign Masters

【大数据】大数据 Hadoop 管理工具 Apache Ambari(HDP)

【第六步】Assign Slaves and Clients

【大数据】大数据 Hadoop 管理工具 Apache Ambari(HDP)

【第七步】Customize Services

【大数据】大数据 Hadoop 管理工具 Apache Ambari(HDP)

【第八步】Review

【大数据】大数据 Hadoop 管理工具 Apache Ambari(HDP)

【第九步】Install, Start and Test

【大数据】大数据 Hadoop 管理工具 Apache Ambari(HDP)
【大数据】大数据 Hadoop 管理工具 Apache Ambari(HDP)

【第十步】Summary

【大数据】大数据 Hadoop 管理工具 Apache Ambari(HDP)
到此布置就完结了,下面就是Hadoop生态组件的监控面板。

【大数据】大数据 Hadoop 管理工具 Apache Ambari(HDP)
到这儿 大数据 Hadoop 办理东西 Apache Ambari 布置以及经过 Ambari 布置大数据组件教程就结束了,有任何疑问重视大众号 大数据与云原生技能共享 加群交流或私信交流,相关的软件包在大众号回复 hdp 即可获取。

【大数据】大数据 Hadoop 管理工具 Apache Ambari(HDP)