首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

0481-如何从HDP2.6.5原地升级到CDH6.0.1

内容概述 1.测试环境说明 2.保存相关元数据 3.停止HDP和Ambari服务 4.卸载Ambari和HDP 5.安装Cloudera Manager 6.安装CDH 7.其他问题 测试环境 1.HDP2.6.5...2.比较HDP2.6.5和CDH5.16.1的组件版本 HDP2.6.5 CDH6.0.1 Hadoop2.7.3 Hadoop3.0 Hive1.2.1 Hive2.1.1 HBase1.1.2 HBase2.0...3.自动升级,我们进入Cloudera官方提供的Hive元数据升级目录 [root@ip-172-31-4-109 ~]# cd /opt/cloudera/parcels/CDH/lib/hive/scripts...查看以下内容前强烈建议你已经仔细阅读过Fayson之前的文章《0480-如何从HDP2.6.5原地迁移到CDH5.16.1》。...停止服务前确认Hive表,HBase,HDFS已经没有写入,然后让HDFS进入安全模式,保存检查点。 4.卸载旧的集群前务必备份好关键数据,包括NameNode的元数据,Hive的元数据库等。

1.4K20
您找到你想要的搜索结果了吗?
是的
没有找到

如何在CDH中安装Kudu&Spark2&Kafka

1.概述 在CDH的默认安装包中,是包含Kafka,Kudu和Spark2的,需要单独下载特定的Parcel包才能安装相应服务。...Kudu后,默认Impala即可直接操作Kudu进行SQL操作,但为了省去每次建表都需要在TBLPROPERTIES中添加kudu_master_addresses属性,建议在Impala的高级配置项中设置...172-31-6-148.fayson.com:7051 3.Spark2安装 集群的jdk版本为jdk1.7.0_67,从Spark2.2.0版本后不再支持Java7、Python2.6和Hadoop2.6.5...spark2.1.0]# [e6pzdxc4fe.jpeg] 3.验证是否部署成功 [3kl12xhi2d.jpeg] 3.3安装Spark2 1.通过CM管理界面配置Spark2的Parcel地址并保存...kafka2.1.1.18]# [puydng82ii.jpeg] 3.验证是否部署成功 [e331a3b4ix.jpeg] 4.3安装Kafka服务 1.通过CM配置Kafka的Parcel包地址并保存

5.7K91

CDP-DC7.1中的 YARN:新增功能和升级方法

CDP DC 7.1是Cloudera Data Platform的本地部署版本。...Cloudera Manager本身也支持FPGA调度,有关如何使用Cloudera Manager配置YARN的详细信息,请参见此页面 。...使用YARN Queue Manager UI,可以设置调度程序级别的属性和队列级别的属性。您还可以使用YARN队列管理器UI查看、排序、搜索和过滤队列。...此功能负责按设置的时间间隔聚合日志。该时间以秒为单位,可由用户配置。滚动日志聚合主要用于运行时间较长的应用程序,例如Spark流作业。...其他版本 不适用 临时升级步骤/手动将数据复制到CDP集群 HDP 2.6.5 2.7.3 支持临时步骤 HDP 3.x 3.1.1 不支持 如果您想访问有关受支持版本的更多详细信息,请参阅受支持的升级路径

1.3K30

如何部署active-active的Hadoop集群

比如在集群A上运行生产作业,研究开发或沙箱测试则基于集群B。这种集群分离,可以让一些Ad-hoc的作业更加灵活的运行在集群B而不会影响到生产系统。...这个规定是为了将公司的数据以最小的距离分开保存在不同的地方从而保护数据,以确保各种灾难都不会造成丢失数据。...3.3.完整的工作负载隔离 ---- Cloudera企业版具备许多内置的功能在单个集群中来保护各种工作负载互相影响,包括CPU,内存和磁盘的使用控制。...你可以通过设置Flume的interceptor和serializer,从而对数据进行一些转化处理在写入最终目标存储前。 ?...在数据沙箱环境中使用和生成的数据,或者用来作为ad-hoc研究的数据通常不需要备份。重要的是EDH用户不用考虑集群间的带宽是否已经被占满了,我们也希望管理员让用户停止实验或者研究。

1.5K30

从遗留发行版到CDP的四种升级和迁移路径

基于要从其升级的旧平台,这种升级过程将保留一些现有设置以及用于各种服务的其他配置。在过渡到CDP私有云基础版时,Cloudera替换了多个旧组件。...在可能的情况下,Cloudera会提供了工具和自动化功能的升级过程,以帮助将这些旧组件转换为等效的CDP组件。...许多服务的现有设置和配置将保持不变。 没有其他环境或相关开销。 缺点 从CDP私有云基础7.1.6开始,就地升级当前仅限于HDP2.6.5,HDP3.1.5和CDH5.13 +。...该方法还可以推广到非Cloudera发行版。 缺点 此方法需要一组重复的硬件,以与旧版环境一起实施未开发的CDP集群。这种新硬件可能会对资本支出和预算产生重大影响。...了解更多 要计划升级或迁移到CDP私有云基础版,请联系您的Cloudera客户团队,他们将安排一些时间与您一起探讨可用的选项。

91120

做大数据再不用提心吊胆了!

cloudera manager中查看了一番之后发现,cloudera的agent只关心自己的目录,对主机里的其他目录则麻木不仁,正所谓,各人自扫门前雪,莫管他人瓦上霜!...真是人心古,世风日下。 ? 如果想在cloudera集群中监控其他硬盘,则需要利用cloudera提供的触发器。在主机上找到图表库,下面有现成的一些图表,这样轻轻松松就找到了想监视的硬盘 ?...在图表上点击齿轮,把它保存到仪表盘,然后点击创建触发器 ? 在这编辑页面稍作修改,就可以作为触发器了 ?...FILESYSTEM AND last(capacity_used/capacity) > 0.90) DO health:bad 这个语句表示"/data"所在的文件系统,使用容量除以总容量超过90%就把主机状态设置为不良...,这时cloudera就会及时发出报警,醍醐灌顶,当头棒喝。

55160

hadoop集群搭建(超详细版)「建议收藏」

处理器设置默认(后面可以修改),内存设为1GB 网络类型选择NAT模式 选择创建新虚拟磁盘 最大磁盘大小设为20GB,然后将虚拟磁盘存储为单个文件 将创建好的磁盘文件存储在虚拟机指定目录下...虚拟网络配置 编辑虚拟网络设置,选择NAT模式 点击NAT设置,查看网络信息(后面设置ip会用到) 查看主机ip地址 修改网络配置文件,将BOOTPROTO值修改为”static” 重启网络服务...hadoop包放在/usr/目录下并解压 配置环境变量 在/etc/profile文件中添加如下命令 12.4 搭建集群的准备工作 在master节点上创建以下文件夹 /usr/hadoop-2.6.5.../dfs/name /usr/hadoop-2.6.5/dfs/data /usr/hadoop-2.6.5/temp 12.5 配置hadoop文件 接下来配置/usr/hadoop-2.6.5/etc...本站仅提供信息存储空间服务,拥有所有权,承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请发送邮件至 举报,一经查实,本站将立刻删除。

2.1K41

Hbase表两种数据备份方法-导入和导出示例

首先介绍一下相关参数选项: (1)  从hbase表导出(# 默认写file://的时候就是导出到hdfs上了  ) HBase数据导出到HDFS或者本地文件 hbase org.apache.hadoop.hbase.mapreduce.Export...HBase数据导出到本地文件 hbase org.apache.hadoop.hbase.mapreduce.Export emp /hbase/emp_bak (2) 导入hbase表(# 默认写...这时候需要设置hbase.export.scaaner.batch 这个参数。这样导出时的错误就可以避免了。...假如,我们想导出表test的数据,且只要列族Info,行键范围在000到001之间,可以这样写: 这样就可以了,且数据将会保存在hdfs中。...如果是delete操作,则表中这条记录已经删除,扫描时也无法获取这条记录信息 当指定时间戳时,备份的就是当前完整表中的数据。

2.1K40
领券