首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

pinpoint 修改hbase表TTL值

参考文档 https://greatwqs.iteye.com/blog/1741330 缘起 Pinpoint接入业务监控后数据量大涨,平均每天Hbase数据增量20G左右,数据量太大,需要对数据进行定期清理...,否则监控可用性降低,由于之前环境是由docker-compose部署,查到hbase可以修改表的ttl来清理数据,目前进入pinpoint-hbase容器操作,如果能在hbase表格生成时就修改ttl...效果会更佳,该方法需要熟悉docker-compose里面pinpoint-web及pinpoint-hbase部署方法,后期跟进 操作步骤 查找出数据大的hbase表 root@990fb5560f64.../ApplicationTraceIndex 19G . 24小时产生数据大概20G,发现其中TraceV2及ApplicationTraceIndex数据比较大,设置TTL分别为7Day及14Day...进入hbase修改表ttl root@990fb5560f64:/opt/hbase/hbase-1.2.6/bin# .

2.1K32

HBase原理 | HBase RegionServer宕机数据恢复

HBase采用类LSM的架构体系,数据写入并没有直接写入数据文件,而是会先写入缓存(Memstore),在满足一定条件下缓存数据再会异步刷新到硬盘。...如果不幸一旦发生RegionServer宕机或者其他异常,这种设计可以从HLog中进行日志回放进行数据补救,保证数据不丢失。HBase故障恢复的最大看点就在于如何通过HLog回放补救丢失数据。...如果修改失败,说明其他RegionServer也在抢占,修改成功表明任务抢占成功。 4....RegionServer抢占任务成功之后会分发给相应线程处理,如果处理成功,会将该任务对应zk节点状态修改为TASK_DONE,一旦失败会修改为TASK_ERR 5....Master会一直监听在该ZK节点上,一旦发生状态修改就会得到通知。

2.5K30
您找到你想要的搜索结果了吗?
是的
没有找到

HBase数据操作

# HBase数据操作 put delete 数据查询 get scan 数据统计 # put 语法 put '表名','行键','列族:列限定符','单元格值',时间戳 描述 必须指定表名、行键...只能插入单个数据 描述:如果指定的单元格已经存在,则put操作为更新数据; 单元格会保存指定VERSIONS=>n的多个版本数据 # delete 语法 delete '表名','行键','列族...,只有在数据产生合并时,数据才会被删除。...语法 count '表名' hbase(main):004:0> count ‘student’ 3 row(s) in 0.0440 seconds 在关系型数据库中,有多少条记录就有多少行,表中的行数很容易统计...而在 HBase 里,计算逻辑行需要扫描全表的内容,重复的行键是不纳入计数的,且标记为删除的数据也不纳入计数。

1.7K30

HBase数据定义

# HBase数据定义 HBase Shell 数据定义 创建表 表相关操作 查看某个表是否存在 查看当前HBase所有的表名 查看选定表的列族及其参数 修改表结构 删除表 清空数据 # HBase...Shell HBase Shell:HBase的命令行工具,最简单的接口,适合HBase管理使用; [root@localhost bin]# hbase shell HBase Shell; enter...exit 推出hbase shell # 数据定义 命令 描述 create 创建指定模式的新表 alter 修改表的结构,如添加新的列族 describe 展示表结构的信息,包括列族的数量与属性...BLOCKCACHE => ‘false', BLOCKSIZE => '65536', REPLICATION_ SCOPE => '0'} 2 row(s) in 0.0340 seconds # 修改表结构...功能 修改表中列族的参数信息 增加列族 移除或删除已有的列族 语法 添加一个列族 alter '表名', '列族名' 删除列族 alter '表名', {NAME=> '列族名', METHOD=

1K20

HBase 数据读写流程

数据 HBase的表是按行拆分为一个个 region 块儿,这些块儿被放置在各个 regionserver 中 假设现在想在用户表中获取 row key 为 row0001 的用户信息 要想取得这条数据...HBase 中有一个内置的 hbase:meta 表,其中记录了所有表的所有 region 的详细信息 例如 region 的 开始KEY、结束KEY、所在server的地址…… ?...hbase:meta 表就像一个目录,通过他可以快速定位数据的实际位置 hbase:meta 表是存储在 ZooKeeper 中的,所以客户端就需要先访问 ZooKeeper,获取到 hbase:meta...,从中查询出目标数据是在哪个 regionserver 中的哪个 region 中,然后到 region 中进行读取 ?...从客户端来看,写操作比较简单,写请求到达 regionserver 后,这些修改会先被写到 MemStore和 HLog 中,成功写入后便会通知客户端写入完成了 MemStore 是内存缓存,保存最近更新的数据

2K81

HBase 数据存储结构

在「HBase」中, 从逻辑上来讲数据大概就长这样: 单从图中的逻辑模型来看, HBase 和 MySQL 的区别就是: 将不同的列归属与同一个列族下 支持多版本数据 这看着感觉也没有那么太大的区别呀,...文件存储的是对数据修改操作, 数据会 append 但不会去修改原有的数据. 是顺序写入操作....在内存中维护一个有序的数据 将内存中的数据push 到磁盘中 将磁盘中的多个有序文件进行归并, 合成一个较大的有序文件 HBase存储 在「HBase」中, 数据的存储就使用了 「LSM 树」进行存储....其中每一条数据都是一条操作记录. 那么在「HBase」实现中的部分内容如下...., 加速读取 根据数据块的位置和大小, 找到指定数据块并二分查找指定数据 HBase 数据列族式存储 先简单回顾一下行式存储和列式存储.

2.6K20

hbase数据清理 原

Done. 0 row(s) in 1.2570 seconds hbase(main):023:0> enable 'SVNCHECKOUTTBL_UPT' 0 row(s) in 4.5620 seconds...hbase(main):024:0> hbase(main):026:0> major_compact('SVNCHECKOUTTBL_UPT') 0 row(s) in 0.1920 seconds...上面是基本的操作,如果你的表已经很满,满到几乎快把hadoop撑爆的时候,上面的方法是慢慢删除的方法,下面是具体的解释: ttl是hbase中表数据的过期时间,一个列族可以对应一个ttl值 habse...中数据删除不是立刻执行的,类似软删除,当你标识数据为删除状态之后,hbase会在大版本合并的时候去真正的处理hadoop上的文件,进而释放磁盘空间, 另外注意一点,在修改表的ttl值的时候,一般需要先disable.../bin/sh exec /usr/local/code_hbase/hbase/bin/hbase shell <<EOF major_compact('TABLE') EOF

2.1K30

Hbase数据

海量数据存储解决方案:Hbase数据库解析 HBase是一个分布式的、面向列的开源数据库,该技术来源于 Fay Chang 所撰写的Google论文“Bigtable:一个结构化数据的分布式存储系统...就像Bigtable利用了Google文件系统(File System)所提供的分布式数据存储一样,HBase在Hadoop之上提供了类似于Bigtable的能力。...HBase是Apache的Hadoop项目的子项目。HBase不同于一般的关系数据库,它是一个适合于非结构化数据存储的数据库。另一个不同的是HBase基于列的而不是基于行的模式。...表结构: 列族:列的集合,它是表模式不能修改的。...Hbase数据库的操作 shell命令行: list:列出所欲表 create “表名”,“列族”,“多个列族” put “表名”,“行键”,“列族:列”,“值” get “表名”,“行键”

1.7K20

误删HBase数据如何抢救?

数据保护 当误删数据发生时候,不管三七二十一,第一要务是进入hbase shell,执行如下命令: ?...这里有必要解释一下HBase清理数据的原理: 首先HBase是一个LSM架构,不断发生着数据文件的写入和合并 当删除操作发生时,不会去清理数据文件中的数据,而是写入一个删除标记到新文件中。...我们来看一个简单的例子,还是以hbase shell为例子: 1.首先我们准备几行数据 ? 2.然后我们删掉y开头掉数据 ? 3.查一下,现在只有3行了 ?...其他 上文使用的是hbase shell演示,你可以使用任何语言的API完成上面的操作。...如果你使用的是云HBase,即便因为major compaction物理删除了数据,只要你开启了备份功能,依然可以恢复。

1.7K40

2021年大数据HBase(一):HBase基本简介

HBase基本简介 一、HBase产生的背景介绍 从 1970 年开始,大多数的公司数据存储和维护使用的是关系型数据库 大数据技术出现后,很多拥有海量数据的公司开始选择像Hadoop的方式来存储海量数据..., 如果要进行随机读取数据,效率较低(压根就不支持) 总结: HADOOP仅适合存储大批量的数据, 进行顺序化读取数据, 并不支持随机读取数据操作 二、HBase的基本介绍 NoSQL是一个通用术语...,泛指一个数据库并不是使用SQL作为主要语言的非关系型数据HBase是BigTable的开源java版本。...Hbase查询数据功能很简单,不支持join等复杂操作,不支持复杂的事务(行级的事务),从技术上来说,HBase更像是一个「数据 存储」而不是「数据库」,因为HBase缺少RDBMS中的许多特性,例如带类型的列...4、时空数据 ◼ 主要是轨迹, 气象网格之类, 滴滴打车的轨迹数据主要存在Hbase之中, 另外在所有大一点的数据量的车联网企业, 数据也是存储在HBase 5、CubeDb OLAP

1.7K40

2021年大数据HBase(三):HBase数据模型!!!【建议收藏】

HBase数据模型 在HBASE中,数据存储在具有行和列的表中。...这是看起来关系数据库(RDBMS)一样,但将HBASE表看成是多个维 度的Map结构更容易理解 术语: 表(Table) : HBase数据都是以表形式来组织的, HBase中的表由多个行组成..., 但在列族中不存储任何内容 所有的列族的数据全部都存储在一块(文件系统HDFS) Hbase官方建议所有的列族保持一样的列, 并且将同一类的列放在一个列族中 列标识符(Column Qualifier...,包含一个值和一个时间戳, 数据以二进制存储 版本号(verson num): 每条数据都会有版本号的概念 每条数据都可以有多个版本号, 默认值为系统时间戳, 类型为Long 时间戳(timeStamp...): 每个数据都会有时间戳的概念 在向Hbase插入更新数据的时候, HBase默认会将当前操作的时间记录下来, 当然也可以人为指定时间 不同版本的数据按照时间倒序排序, 即最新的数据排在最前面 -

1.1K20

数据技术之_11_HBase学习_02_HBase API 操作 + HBase 与 Hive 集成 + HBase 优化

6.2.5 向表中插入数据(put)     // 向表中插入数据(或修改)     public static void putRowData(String tableName, String rowKey...(或修改)         // putRowData("student", "1003", "info", "name", "hahahaha");         // 删除多行数据         ...修改/etc/profile文件,增加以下内容: #HBASE_HOME export HBASE_HOME=/opt/module/hbase #HIVE_HOME export HIVE_HOME.../lib/hbase-hadoop-compat-1.3.1.jar 同时在 hive-site.xml 中修改 zookeeper 的属性,如下: [atguigu@hadoop102 conf]$ ...第一个属性值修改为true,第二个属性值修改为:org.apache.hadoop.io.compress.GzipCodec或者其他压缩方式。

1.8K30

mysql数据迁移hbase问题

到100w后速度不能忍受的慢 问题场景为遍历数据库,可以记录上次的最大token,然后 where token>? limit ?  limit单值相当于 limit 0,? 速度会很快。...这通常比ALL快,因为索引文件通常比数据文件小。     (11).all: 对于每个来自于先前的表的行组合,将要做一个完整的表扫描。...队列满时offer会返回false,设定时间的话等到超时时间会返回false,所以不能让队列满,满了就会丢数据 问题4:hbase单线程插入只有500左右 多线程方式或批量插入方式解决,测速大概在50000...条每秒,大概50MB左右的数据量,占带宽的一半。...hbase shell wiki: http://wiki.apache.org/hadoop/Hbase/Shell hbase依赖的jar包: hadoop core 需要使用 commons.logging

1.6K50
领券