编写本文主要是因为Fayson在上篇文章《0480-如何从HDP2.6.5原地迁移到CDH5.16.1》迁移失败的补充,为什么迁移失败是因为HDP2.6.5的Hadoop版本2.7.5比C5的2.6要高导致的,HDFS只支持升级,而不支持降级。
CDP 私有云基础是Cloudera的本地(裸机)产品、企业数据中心(Enterprise Data Hub)和 HDP 企业的演变。CDP Private Cloud Base 7.1 包括 Cloudera Runtime 7.1,它将 CDH 和 HDP 的优点结合到一个发行版中。CDP私有云基础为客户提供以下服务:
Cloudera于2019年1月29日发布CDSW1.5,因为恰逢过年,所以Fayson没第一时间翻译。1.5的主要更新是C6中终于可以使用CDSW了,另外HDP2.6.5和HDP3.1中也可以使用CDSW。
Cloudera数据平台(CDP)是Cloudera的最新大数据产品。Apache HBase和Phoenix作为CDP平台的一部分。这两个组件以3种形态提供:
我们常使用的Hadoop平台包括Apache Hadoop,CDH和HDP,有时我们会碰到需要迁移平台的情况,举个例子,比如你已经一直在使用Apache Hadoop2.4,近期看到CDH6附带Hadoop3发布了,想迁移到CDH并且做整个平台的所有组件升级。平台迁移和平台升级的方式基本一样的,一般有2种大的选择,第一种是原地升级即直接在原有平台上操作,该办法操作效率较高,马上看到效果,但往往风险较高,比如升级失败回滚方案不完善,跨大版本比如Hadoop2到Hadoop3可能HDFS还有丢数据的风险;第二种是拷贝数据的方式升级,需要额外的服务器资源,会新搭平台,然后把旧的平台的数据拷贝过去,数据拷贝完毕后,再把旧集群的机器下线了慢慢加入到新集群,该方法一般实施周期较长,但是风险较小。根据实际情况可以选择不同的方式来进行平台迁移或者平升级,另外对于两种方案还可以具体细化分类出不同的方案,比如第一种方案考虑提前备份数据或者备份关键数据等,本文Fayson不做细化讨论。
出于CDH集群安全考虑,在CDH集群中增加了Kerberos认证机制。因为HBase的存储系统是基于Hadoop的存储,所以通过HBase客户端访问HBase数据库时需要进行身份认证。在Linux下使用HBase客户端访问HBase数据时需要先kinit初始化Kerberos账号,认证完成后我们就可以直接使用HBase shell操作HBase了。通过Linux的Kinit命令可以方便的完成Kerberos的认证,那么在Java开发中如何完成Kerberos的登录认证呢?本篇文章主要讲述如何使用Java连接Kerberos环境的HBase。
自2017年Cloudera Data Science Workbench(CDSW)推出以来,我们一直致力于加速企业数据科学从研究到生产。我们正在帮助IQVIA和Deutsche Telekom等数百家客户建立自己的AI工厂,使大型数据科学团队能够安全,自助地访问业务数据,计算资源以及开源工具和库,这样他们能够更快的创新和影响业务。
在前面的文章Fayson介绍了《如何使用Java连接Kerberos的HBase》,虽然非Kerberos环境下访问HBase比较简单,本篇文章Fayson还是主要介绍使用Java访问非Kerberos环境的HBase。
Other Hadoop-related projects at Apache include:
根据IDG的说法,当客户考虑更新到产品的最新版本时,他们期望新功能、增强的安全性和更好的性能,但越来越希望拥有更简化的升级过程。伴随着CDP私有云的每个新版本,我们正在努力提供这些内容。伴随着许多新功能,我们正在尽可能简化升级过程。在此博客中,我们将介绍7.1.6版本中的新功能以及从HDP进行的新的就地升级,从而完全消除了替换基础架构和数据迁移的麻烦。
在CDH的默认安装包中,是不包含Kafka,Kudu和Spark2的,需要单独下载特定的Parcel包才能安装相应服务。本文档主要描述在离线环境下,在CentOS6.5操作系统上基于CDH5.12.1集群,使用Cloudera Manager通过Parcel包方式安装Kudu、Spark2和Kafka的过程。
该博客文章将介绍客户如何将集群和工作负载迁移到新的CDP-DC7.1,以及此新版本的重点。
前面我们讲过《如何使用java代码通过JDBC连接Impala(附Github源码)》,本篇文章主要讲述如何使用Java代码通过JDBC的方式连接Hive。
温馨提示:要看高清无码套图,请使用手机打开并单击图片放大查看。 Fayson的github:https://github.com/fayson/cdhproject 提示:代码块部分可以左右滑动查看噢 1.文档编写目的 ---- 基于Hadoop部署企业数据中心(EDH)一个最主要的好处就是利用其横向扩展的能力。单个集群可以扩展到数千个节点。此外,根据一些生产系统的需要,此集群还包括数据的多级备份策略以及故障/错误保护,从而保证数据不丢以及系统的容错。然而,很多企业依旧需要多个集群来保证真正的容灾,为什么需
Cloudera Support 的集群验证主动识别客户诊断数据中包含的已知问题特征,目的是提高集群的运行状况、性能和整体稳定性。集群验证包含在客户的企业订阅中,无需额外费用。所有有权访问支持案例门户的客户也将能够利用集群验证。为了利用验证,客户只需要从他们支持的集群中提供最新的诊断包。
如果你要在本机做开发,配置IDE环境,想要连接到Docker中,推荐使用Docker toolBOX。docker for mac 版本没有docker0网桥。
前面Fayson介绍了《如何使用HAProxy实现HiveServer2负载均衡》,本文主要介绍如何使用HAProxy实现Kerberos环境下HiveServer2的负载均衡。
Hue百科: Hue 是一种基于Apche hadoop基础平台的在线开源数据分析接口,参见 gethue.com Hue的主要功能: 提供SQL 接口:Hive, Impala, MySql, Po
访问Impala的方式很多(如:impala-shell、ODBC、JDBC、Beeline),也可以通过Hue的来访问。关于Beeline方式连接Impala可以参考前面的《如何使用Beeline连接Impala》,本篇文章主要讲述如何使用JAVA代码通过JDBC的方式连接Kerberos和非Kerberos环境下的Impala。
从遗留平台的发行版到CDP的所有路径的每种机制都有共同的工作、缓解风险和取得成功成果的方面。其中包括工作负载审查、测试和验证、管理服务级别协议(SLA)、以及在移动期间最大程度地减少工作负载的不可用。
在前面的文章Fayson介绍了《如何使用java代码通过JDBC连接Hive(附github源码)》、《如何使用java代码通过JDBC连接Impala(附Github源码)》和《如何使用Java访问集成OpenLDAP并启用Sentry的Impala和Hive》,关于Hive和Impala如何启用Sentry可以参考Fayson前面的文章《如何在CDH启用Kerberos的情况下安装及使用Sentry(一)》,《如何在CDH启用Kerberos的情况下安装及使用Sentry(二)》和《如何在CDH未启用认证的情况下安装及使用Sentry》,在集群只启用了Sentry的情况下如何访问?本篇文章主要介绍在集群只启用了Sentry后使用Java通过JDBC访问的区别以及在beeline命令行如何访问。
请务必注意CDP Data Center的安装前置条件,请到https://docs.cloudera.com/cloudera-manager/7.1.1/installation/topics/cdpdc-requirements-supported-versions.html 查询对应版本的前提条件。对应CDP数据中心版7.1来讲,前提条件包括如下:
在前面的文章Fayson介绍了《如何使用java代码通过JDBC连接Hive(附github源码)》和《如何使用java代码通过JDBC连接Impala(附Github源码)》,本篇文章主要介绍在集群集成了OpenLDAP和启用了Sentry后使用Java通过JDBC访问的区别以及在beeline命令行如何访问。
执行脚本链路: start-dfs.sh -> hdfs-config.sh -> hadoop-config.sh -> hadoop-daemons.sh -> slave.sh -> hadoop-daemon.sh -> hadoop-env.sh -> hdfs
温馨提示:要看高清无码套图,请使用手机打开并单击图片放大查看。 Fayson的github: https://github.com/fayson/cdhproject 提示:代码块部分可以左右滑动查看噢 1.文档编写目的 ---- 前面Fayson介绍了《如何在CDH中启用Spark Thrift》和《如何在Kerberos环境下的CDH集群部署Spark1.6 Thrift及spark-sql客户端》,本篇文章Fayson主要介绍如何使用Java JDBC连接非Kerberos和Kerberos环境下Sp
Cloudera Manager是一个拥有集群自动化安装、中心化管理、集群监控、报警功能的一个工具,使得安装集群从几天的时间缩短在几个小时内,运维人员从数十人降低到几人以内,极大的提高集群管理的效率。
分布式文件系统(hmdfs,HarmonyOS Distributed File System)提供跨设备的文件访问能力,适用于如下场景:
准备至少3台机器(通过克隆虚拟机;配置好网络JDK 时间 hosts,保证节点间能互ping通)
登录Cloudera Manager的用户的最小角色要求:Configurator或者Cluster Administrator或者Full Administrator。
针对近期搭建HDP3.1.4版本大数据集群,相较之前研究的HDP2.6.3版本,版本跨度大,为更好的了解掌握新版本的新特性,于是对两个版本及区间版本的技术演进做下梳理。
补充: 为什么 在 Hadoop 2.x 中 HDFS 中有 ZKFC 进程,而 yarn 却没有? 在 Hadoop 1.x 升级到 Hadoop 2.x 的过程中,考虑到向下兼容的问题, NameNode 进程没有嵌入 ZKFC 中的代码,而另外开辟一个进程 ZKFC 。 再者由于 Hadoop 1.x 中没有 yarn 组件,Hadoop 2.x 中才出现的 yarn 组件, 所以 yarn 不用考虑向下兼容的问题,即 ResourceManager 进程就直接嵌入 ZKFC 中的代码,只运行一个进程。
---- 软件准备 一台Linux虚拟机 我用的CentOS-6.6的一个虚拟机,主机名为repo 参考在Windows中安装一台Linux虚拟机 该虚拟机中安装了JDK 参考在Linux中安装JDK 该虚拟机可以免秘钥登录自身 参考配置各台虚拟机之间免秘钥登录 hadoop安装包 下载地址:https://mirrors.aliyun.com/apache/hadoop/common/ 我用的hadoop2.6.5 ---- 1. 把hadoop安装包上传到服务器并解压 [root@r
准备工作 1, 配置hostname vi /etc/sysconfig/network 修改hostname: NETWORKING=yes HOSTNAME=master 通过 service network restart 重启网络服务生效。 vi /etc/hosts ,修改ip与主机名的对应关系
白话解释SSH免秘钥 如果A 想 免密的登陆到B: A:ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa B:cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys
这是CDP中Yarn使用系列中的一篇,之前的文章请参考<使用YARN Web UI和CLI>、<CDP 中配置Yarn的安全性>、<CDP的Yarn资源调度与管理>和<CDP中Yarn管理队列>。
CDH(Cloudera's Distribution, including Apache Hadoop)是Hadoop众多分支中的一种,由Cloudera维护,基于稳定版本的Apache Hadoop构建提供了Hadoop的核心可扩展存储、分布式计算 基于Web的用户界面。 简单来说CDH就是把我们知道的大数据家族组件进行了一个组合,然后提供了一个WEB-UI的页面,使原来的搭建操作变得非常简单。CDH架构图如下:
在本次实验中,您将创建一个简单的交互式实时仪表板,以可视化存储在 Kudu 中的传感器数据。
本次实验环境是Linux2.6.35内核的环境下,下载并重新编译内核源代码(2.6.36);然后,配置GNU的启动引导工具grub,成功运行编译成功的内核。
对于Hadoop Master(ResourceManager/NameNode)节点硬件配置要高一些
CDP PVC BASE7.1.8是Cloudera与Hortonworks合并后,第一个融合CDH和HDP所有组件的on-premise并且可用于生产环境的新功能版本,CDP PvC Base主要由Cloudera Runtime构成,Cloudera Runtime由超过40个开源项目组成,当然CDP PvC Base还包括其它功能如管理功能Cloudera Manager,Key Management,专业支持等。Cloudera Runtime的主要组件版本如下图所示:
将集群从 Hive1 /2升级到 Hive3?这包括:CDH5→CDP、CDH6→CDP、HDP2→HDP3 或 HDP2→CDP。这种升级的挑战有多种形式。此工具旨在(多次)在 Hive1/2 环境中运行,以收集有关在尝试升级之前需要解决的“什么”的详细信息。
该文章讲述了Windows内核模式下的令牌(Token)和进程(Process)之间的关系。Token是Windows内核中的一个重要概念,代表一个特权级别的对象。它代表了系统的某个部分,比如一个线程、一个进程或一个I/O操作。Token在Windows系统中非常常见,是处理用户态和内核态之间权限问题的关键。在Windows系统中,进程之间的通信需要使用Token。在创建新进程时,可以通过复制父进程的Token来创建新进程的Token,这样可以保证新进程的安全性。同时,文章还讨论了Token与进程之间的关系,以及Token在Windows系统中的重要性。
介绍 本文要介绍的Apache Hadoop是一个使用简单高级编程模型实现的对大型数据集进行分布式存储和处理的软件框架。文章涵盖了Hadoop最重要的概念,对其架构的描述,并指导如何使用它,以及在Hadoop上编写和执行各种应用程序。 简而言之,Hadoop是Apache Software Foundation的开源项目,可以安装在一组标准机器上,以便这些机器可以通信并协同工作来存储和处理大型数据集。近年来,Hadoop已经非常成功,因为它有能力有效地处理大数据。它允许公司将其所有数据存储在一个系统中,并对
该项目用于把 Kafka 运行在 Yarn 的辅助项目,项目依赖: kafka, kafka-offset-console. 见 kafka-yarn.properties 的配置 项目文件 kafka lib(kafka.zip): ./avro-1.7.7.jar ./avro-ipc-1.7.7.jar ./commons-cli-1.2.jar ./commons-collections-3.2.1.jar ./commons-configuration-1.6.jar ./commons-io-2
自定义服务描述符(custom service descriptor,CSD)是Cloudera Manager用来描述某个产品的,比如Spark2,CDSW或者Kudu,包括Fayson在以前的文章中介绍过的自定义Livy的Parcel包,参考《0387-如何打包Livy和Zeppelin的Parcel包》。一个产品想集成到Cloudera Manager,必须具备csd文件,这样CM就可以支持该产品的配置,分发和监控。
vim/opt/bdp/apache-hive-1.2.1-bin/conf/hive-site.xml
在集群安装初期由于未规范集群主机的主机名,这样会带来集群管理的不便,现需要将CDH/CDP集群的主机名统一规范化,在修改主机名的过程中需要注意什么?本篇文章主要介绍如何修改Kerberos环境下的CDP集群的HOSTNAME,在修改CDH集群的主机名采用相同的方法。修改集群所有主机的hostname的步骤如下:
如果您拥有Cloudera Enterprise许可证,那么我们就能借助于Cloudera Manager提供的收集集群诊断包功能,通过Cloudera的后台Support对诊断包进行分析,为您提供集群健康诊断及优化改进建议。Cloudera Manager提供自动收集和手动收集诊断包方式,在多数企业内网环境无法将诊断包信息直接发送至后台Support,通常使用手动收集的方式。本篇文章Fayson主要介绍如何使用Cloudera Manager手动收集诊断包。
您配置 Hive 仓库连接器 (HWC) 的方式会影响查询授权过程和您的安全性。有多种方法可以通过 HWC 访问 Hive,并不是所有操作都通过 HiveServer (HS2)。一些操作,例如 Spark Direct Reader 和 Hive Streaming,通过 HMS 直接进入 Hive,其中通常适用基于存储的权限。
三、在Cloudera Manager中添加Phoenix服务(前提是已经安装了HBase服务)
领取专属 10元无门槛券
手把手带您无忧上云