Ambari 借鉴了很多成熟分布式软件的 API 设计。 Rest API 就是一个很好地体现。通过 Ambari 的 Rest API,可以在脚本中通过 curl 维护整个集群。 并且,我们可以用 Rest API 实现一些无法在 Ambari GUI 上面做的操作。下面是一些实例。
AgentResource类位于org.apache.ambari.server.agent.rest包下,如下图:
Ambari是hadoop分布式集群配置管理工具,是由hortonworks主导的开源项目。它已经成为apache基金会的孵化器项目,已经成为hadoop运维系统中的得力助手,引起了业界和学术界的关注。
多机部署问题,当集群规模增加后,机器出问题机率增加,在部署或更新中可能会出现机器故障
Ambari-Server是一个WEB Server,提供统一的REST API接口,同时向web和agent开放了两个不同的端口(默认前者是8080, 后者是8440或者8441)。它是由Jetty Server容器构建,通过Spring Framework构建出来的WEB服务器,其中大量采用了google提供的Guice注解完成spring框架所需要的注入功能。 REST框架由JAX-RS标准来构建。
当我们为了体验ambari安装很多服务时,因为安装过多,导致机器很卡,或者暂时用不到,还容易除错,那么我来教你如何卸载。
手动安装Hadoop的朋友都知道,这是一个痛苦的过程。一天时间,你能够把上千台机器全部安装完成么?包括Hive、Spark、Hbase等。
hbase 启动不起来,通常是因为节点日期不同步。 HDFS 无法启动,通常是因为hdfs 进入了安全模式,需要先退出来,再启动。
Ambari 是什么 Ambari 跟 Hadoop 等开源软件一样,也是 Apache Software Foundation 中的一个项目,并且是顶级项目。目前最新的发布版本是 2.0.1,未来不久将发布 2.1 版本。就 Ambari 的作用来说,就是创建、管理、监视 Hadoop 的集群,但是这里的 Hadoop 是广义,指的是 Hadoop 整个生态圈(例如 Hive,Hbase,Sqoop,Zookeeper 等),而并不仅是特指 Hadoop。用一句话来说,Ambari 就是为了让
在上篇文章中你已经看到了在你的devbox创建一个单点Hadoop 集群是多么简单。
根据Hadoop官网的相关介绍和实际使用中的软件集,将Hadoop生态圈的主要软件工具简单介绍下,拓展对整个Hadoop生态圈的了解。
7月13日,Hortonworks在其官网宣布发布HDP3.0,包括Ambari2.7和SmartSense1.5。包括下载仓库与配套文档都正式GA。
安装过 hadoop 集群的人都应该清楚,hadoop 生态从安装、配置到后期运维是一个非常艰辛的过程,一般来说安装 hadoop 可能就需要几天时间,运维一个小型集群同样需要几个人。ambari 和 cloudera Manager 这两个系统,目的就是简化 hadoop 生态集群的安装、配置,同时提高 hadoop 运维效率,以及对 hadoop 集群进行监控。
强大的身份验证和建立用户身份是 Hadoop 安全访问的基础。用户需要能够可靠地 “识别” 自己,然后在整个 Hadoop 集群中传播该身份。完成此操作后,这些用户可以访问资源(例如文件或目录)或与集群交互(如运行 MapReduce 作业)。除了用户之外,Hadoop 集群资源本身(例如主机和服务)需要相互进行身份验证,以避免潜在的恶意系统或守护程序 “冒充” 受信任的集群组件来获取数据访问权限。
Here's my notes about introduction and some hints for Hadoop-based open source projects. Hope it's useful to you.
强大的身份验证和建立用户身份是Hadoop安全访问的基础。用户需要能够可靠地“识别”自己,然后在整个Hadoop集群中传播该身份。完成此操作后,这些用户可以访问资源(例如文件或目录)或与集群交互(如运行MapReduce作业)。除了用户之外,Hadoop集群资源本身(例如主机和服务)需要相互进行身份验证,以避免潜在的恶意系统或守护程序“冒充”受信任的集群组件来获取数据访问权限。
Xcheck的java安全检查引擎支持Spring RequestMapping、JAX-RS、WebService和Java Servlet几种常用web接口的代码安全检查,目前内部误报率数据统计低于10%,扫描速度1w+行每秒。
2.7版本在 org/apache/ambari/server/controller/目录下的xxxRequest.java和xxxResponse.java文件内新增了@ApiModelProperty注解。
针对近期搭建HDP3.1.4版本大数据集群,相较之前研究的HDP2.6.3版本,版本跨度大,为更好的了解掌握新版本的新特性,于是对两个版本及区间版本的技术演进做下梳理。
使用 ambari 来搭建 hdp 集群,前前后后搭了不下10遍,之前一直没有完整的总结整个过程,最近有空正好记录一下。
ambari HDFS-HA 回滚 查看hdfs的信息 curl -u admin:admin -H "X-Requested-By: ambari" -X GET http://centos1:8
其中requestedSubResources的值是在对应Type的ResourceDefinition类中定义,例如RackResourceDefinition.java
大数据平台,涉及到很多软件产品,如果刚刚入行Hadoop,直接下载软件包,手动配置文件的方式,并没有那么直观和容易。
本篇文章主要讲解Ambari的一些基础知识,让大家对Ambari有一个潜意识的认识。
用户画像是大数据顶层应用中最重要的一环,搭建一套适合本公司体系的用户画像尤为重要。但是,用户画像的资料往往理论居多,实践少,更少有工程化的实战案例。
Presto是由Facebook开发的一个分布式SQL查询引擎, 它被设计为用来专门进行高速、实时的数据分析。它的产生是为了解决Hive的MapReduce模型太慢以及不能通过BI或Dashboards直接展现HDFS数据等问题。Presto是一个纯粹的计算引擎,它不存储数据,其通过Connector获取第三方Storage服务的数据。
用户画像是大数据顶层应用中最重要的一环,搭建一套适合本公司体系的用户画像尤为重要。但是,用户画像的资料往往理论居多,实践少,更少有工程化的实战案例。
本文由 伯乐在线 - zhique 翻译,xxmen 校稿。未经许可,禁止转载! 英文出处:Ram Sriharsha。欢迎加入翻译组。 Apache Spark 为数据科学提供了许多有价值的工具。随着 Apache Spark 1.3.1 技术预览版的发布,强大的 Data Frame API 也可以在 HDP 上使用数据科学家使用数据挖掘和可视化来帮助构造问题架构并对学习进行微调。Apache Zeppelin 正好能够帮他们做到这些。 Zeppelin 是一个基于 Web 的 notebook 服务器
在配置HUE访问NameNode HA之前,我们先来了解一下WebHDFS与HttpFS:
通过Yum安装RPMs适用于EPEL6,7, 以及仍在支持中的Fedora发行版。
Hadoop版本: cdh5.0.1(manmual安装,未安装cloudera-manager相关)
示例基于Centos7安装Hue,安装前需要安装大量的软件和包,因为python和c必须的依赖包
今天又有朋友咨询我 ambari 相关的问题,注册主机步骤出错。他说他试了好几次,无奈只能加我好友来寻求帮助。
大家好,我是 create17。自从 2017 年就开始围绕 Ambari 做相关工作。期间做过 Ambari 安装部署、页面生产级别的汉化、Ambari 自定义服务集成、前端页面开发、后端 API 接口开发、Ambari Server HA、部分原生 bug 修改,以及 HDP 相关常用组件的基本使用。
如上图所示,Ambari 部署 HDP 时,Select Version 时页面数据是哪来的呢?今天就来解析下。
之前一直用的开源社区的版本,最近突然想到找一个好的商业版本用着,然后一直使用,然后就定上了hdp和cdh,都装上去了,但是cdh使用难度太大了,和开源版本的差距比较大,api不会使用,需要学它的cdk。hdp和开源版差不多,也是经过了优化了的,也是开源的,有一个管理界面,比社区版要好,这个安装过程废了很大的劲儿才搞成功的,发出来跟大家分享一下。 hdp的安装折腾了好久,它的下载地址网址不像CDH那么难找,不过它的设置相对CDH简单很多,一键式安装,而且都是免费的软件。 1.首先要下载它们的安
该版本相对 2.7.5 版本以来,共有 26 个 contributors 提交了 114 个 commits 以及修改了 557 个文件。详情见:https://github.com/apache/ambari/compare/release-2.7.5...release-2.7.6
Fayson为了方便接下来从HDP迁移到CDH的工作,这里先补充一篇如何禁用HDP的HDFS的HA,从HDP原地迁移到CDH,如果你的原HDP集群有HA的话,为了因为Zookeeper,JournalNode配置带来的不适应,先取消HA会更保险一些。这里还是要吐槽一下HDP的HDFS HA功能,使用Ambari可以界面化的启用HA,但是要禁用会非常非常麻烦,需要手动做很多个步骤才能最终取消成功。Cloudera Manager还是要方便很多,这一块可以参考Fayson之前的文章《如何使用Cloudera Manager启用HDFS的HA》和《如何使用Cloudera Manager禁用HDFS HA》。本文Fayson主要是介绍如何手动禁用HDP的HDFS的HA。前置条件当然是你使用Ambari开启了HDFS的HA了,如何开启Fayson在本文就不会再做描述了。
Apache Knox网关(“ Knox”)是一种在不降低Hadoop安全性的情况下将Apache™Hadoop®服务的覆盖范围扩展到Hadoop群集之外的用户的系统。Knox还为访问群集数据和执行作业的用户简化了Hadoop安全性。Knox网关被设计为反向代理。
1. 服务器准备 1 主机名 1.1 修改hostname
出错的Java文件编码和CheckStyle设置的编码不同。CheckStyle里设置的编码是UTF-8
OushuDB是由Apache HAWQ创始团队基于HAWQ打造的新一代数据仓库(New Data Warehouse)。该产品采用了存储与计算分离技术架构,具有MPP的所有优点,还具有弹性,支持混合工作负载和高扩展性等优点。作为HAWQ的增强版,OushuDB遵循ANSI-SQL标准,兼容Oracle、Greenplum Database和PostgreSQL,提供PB级数据交互式查询能力,提供对主要BI工具的描述性分析和AI支持。
一、准备工作: 1.基本工具 yum rpm scp curl wget pdsh 前几个一般系统都自带了,pdsh需要自己装 : yum install pdsh 这个命令没有成功执行 自己下载pdsh.tar.bz2,用tar -jxvf filename.tar.bz解压。之后进入filename文件夹,执行./configure,然后执行make和make install命令。安装结束。
本文介绍了从Ambari迁移到HDP的步骤和注意事项。主要包括了升级前检查、配置迁移、数据迁移、应用迁移、高可用和性能优化、验证和测试、以及常见问题。
编辑key_properties.json,将当前资源类型与含有id的value相映射。
CDP 私有云基础版是 Cloudera Data Platform (CDP) 的本地版本。这款产品结合了 Cloudera Enterprise Data Hub 和 Hortonworks Data Platform Enterprise 的优点以及整个堆栈的新功能和增强功能。这种统一分发是一个可扩展且可定制的平台,您可以在其中安全地运行多种类型的工作负载。CDP 是一个简单、快速、安全的企业分析和管理平台,具有以下功能:
hosts文件添加 Knox 的{ {GATE_WAY}}ip的映射 就可以打开界面了
Apache Ambari是一种基于Web的工具,支持Apache Hadoop集群的供应、管理和监控。
Apache的Hadoop项目已几乎与大数据划上了等号。它不断壮大起来,已成为一个完整的生态系统,众多开源工具面向高度扩展的分布式计算。
领取专属 10元无门槛券
手把手带您无忧上云