腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
Cloud
Bigtable
似乎
没有
删除
本应
进行
垃圾
收集
的
数据
google-cloud-platform
、
bigtable
、
google-cloud-bigtable
我使用
的
是
Cloud
Bigtable
开发集群。对于特定
的
列族,我将max version更改为1,但这
似乎
不会影响我
的
数据
。当我执行查找时,旧版本仍然存在。我遗漏了什么?
浏览 9
提问于2019-03-12
得票数 1
回答已采纳
1
回答
如何在Google
Cloud
Bigtable
中设置未来
的
插入日期?尝试使用TTL计算它
google-cloud-platform
、
bigtable
、
google-cloud-bigtable
我有一个只有一个列族
的
表,这个列
的
TTL是172800秒(2天),我需要在截止日期之前
删除
一些
数据
。如果我希望该值在5分钟内过期,我会计算过期时间并将插入日期设置为过期时间之前
的
5分钟。但是这个值
似乎
不会过期。对此有什么建议吗?0', BLOCKCACHE => 'true', BLOCKSIZE => '65536', REPLICATION_SCOPE => '0'}import
浏览 3
提问于2018-10-03
得票数 0
2
回答
删除
Apache Beam2.2.0中
的
Bigtable
行
google-cloud-dataflow
、
apache-beam
、
google-cloud-bigtable
我已经找到了如何使用它来处理单元格级
数据
,所以创建新行和创建/
删除
列是可以
的
,但是现在我们如何
删除
行,给定一个已有的RowID?从
bigtable
-hbase-dataflow更改为
b
浏览 7
提问于2018-01-03
得票数 1
回答已采纳
1
回答
“
bigtable
-hbase”与BEAMjavaSDK2.5兼容吗?
google-cloud-dataflow
、
google-cloud-bigtable
“写”部分创建这个“config”实例,但我尝试了上述两种方法(从“读取”部分复制,
删除
'.withScan()‘行,以及
删除
CloudBigtableTableConfiguration.BuilderLauncher.java:349) ... 7 more
似乎
没有
找到如果还
没有
与2.5兼容,那么
bigtable
-hbase-b
浏览 0
提问于2018-07-05
得票数 1
回答已采纳
2
回答
如何在
Bigtable
中重命名表?
bigtable
、
google-cloud-bigtable
、
table-rename
我正在尝试在Google
的
Bigtable
中重命名一个表,但是找不到任何关于如何做
的
东西。如何才能做到这一点?
浏览 4
提问于2018-05-01
得票数 0
1
回答
Bigtable
重复
数据
- GC策略
garbage-collection
、
google-cloud-bigtable
当我在
bigtable
中向单元格插入值时,它不会覆盖前面的值,而是将相同
的
值添加到同一行
的
同一列标识符中。唯一
的
区别是时间戳。"0“ common:delete_flag @ 2018
浏览 1
提问于2018-03-06
得票数 1
回答已采纳
1
回答
对于一个
BigTable
节点,我能拥有少于2.5TB
的
磁盘吗?
google-cloud-platform
、
google-cloud-bigtable
、
bigtable
在GCP用户界面中,我可以估计我希望使用
的
任何磁盘大小
的
价格,但是当我想要创建我
的
BigTable
实例时,我只能选择节点
的
数量,每个节点都附带2.5TB
的
SSD或HDD磁盘。例如,是否有一种方法可以使用SSD
的
1个节点和1TB来设置
BigTable
集群,而不是2.5TB
的
默认集群? 即使在GCP定价计算器中,我也可以更改磁盘大小,但在创建集群()时无法找到配置它
的
位置。
浏览 5
提问于2020-05-15
得票数 1
回答已采纳
1
回答
在Java中缓存大量
的
空间
数据
--可行吗?
java
、
caching
、
out-of-memory
、
spatial
我遇到了一种情况,在这种情况下,我希望存储空间
数据
的
内存缓存,该缓存不是立即需要
的
,也不是从磁盘加载
的
,而是通过算法生成
的
。由于
数据
是在空间上访问
的
,因此将基于无关性因素和到最近读取操作
的
位置
的
距离从高速缓存中
删除
数据
。问题是Java
的
垃圾
收集
似乎
不能很好地与这个系统集成。我想使用
数据
的
空间知
浏览 1
提问于2012-09-14
得票数 0
回答已采纳
1
回答
Community-auth Codeigniter 3-随机丢失会话变量
codeigniter
、
authentication
我正在使用带有Codeingniter V3
的
社区身份验证来
进行
身份验证和存储授权级别等。当控制器调用verify_min_level例程时,问题就会出现,该例程应该只是验证它们是否已登录。但是它返回FALSE,这意味着Community-Auth认为他们
没有
登录,并且代码重定向到登录屏幕。 由于它
似乎
浏览 1
提问于2019-01-14
得票数 0
1
回答
如何处理
BigTable
扫描InvalidChunk异常?
python
、
google-cloud-bigtable
、
happybase
我试图扫描某些行“脏”
的
BigTable
数据
,但这取决于扫描失败,导致(序列化?) InvalidChunk异常。守则如下:from google.
cloud
import happybase client =
bigtable
.Client(project我无法从堆栈跟踪中检测出哪些值是有问题
的
--这些值随列而异--扫描只是失败。这使得在源中清除
数据
存在问题。当我
浏览 3
提问于2016-11-24
得票数 6
1
回答
读取大表时DataFlow DoFn意外挂起
google-cloud-platform
、
google-cloud-dataflow
、
google-cloud-bigtable
我们
的
数据
流管道有一个DoFn,它使用hbase multiget client api从
bigtable
读取
数据
。这
似乎
会导致
数据
流随机停止,堆栈如下: 处理在步骤AttachStuff/BigtableAttacher中停滞了至少04h10m00s,而
没有
输出或完成在java.util.concurrent.locks.LockSupport.park(AbstractApiFuture.java:56) at com.google.
cloud</
浏览 0
提问于2019-06-14
得票数 0
2
回答
Haskell中
的
垃圾
收集
与并行计算
haskell
、
parallel-processing
、
garbage-collection
、
immutability
大多数使用
垃圾
收集
器(可能是所有
垃圾
收集
器)
的
语言都有一个与并行计算相关
的
主要问题:
垃圾
收集
器必须停止所有正在运行
的
线程,以便
删除
未使用
的
对象。Haskell也有
垃圾
收集
器。但是,由于纯度
的
原因,Haskell保证不会有任何计算更改原始
数据
,而是生成一个副本,然后
进行
更改。我认为,通过这种方式,GC不必停止所有
浏览 1
提问于2012-03-04
得票数 13
回答已采纳
1
回答
Google
Bigtable
导出失败并返回java.lang.NoSuchMethodError
google-cloud-bigtable
我尝试使用这个过程:来导出我
的
Bigtable
以
进行
迁移。
似乎
还
没有
现成
的
jre (即apt-get中
的
)来
进行
扩展java -jar
bigtable
-beam-imp
浏览 0
提问于2018-05-26
得票数 2
3
回答
从arraylist java中移除/
删除
对象
java
、
arraylist
、
garbage-collection
如果我创建一个数组列表,然后用add()方法在其中创建对象,当我使用iterator.remove()方法时,它是简单地从数组中
删除
它们还是也
删除
它们?当数组中
的
对象被
删除
(或者至少被
垃圾
回收器标记为
删除
)时,它们是被
删除
了吗?或者当您从数组中拉出它们并且无法访问它们时,它们是否存在于程序
的
持续时间内?我考虑过将索引处
的
数组设置为null,但如果它只是访问数组而不是对象本身,那么它将使用null替换对象,并在不
删除
对
浏览 1
提问于2014-06-04
得票数 0
1
回答
如何为Google
Cloud
Bigtable
进行
连接池
java
、
java-8
、
hbase
、
bigtable
、
google-cloud-bigtable
我试过在这里检查,但不确定如何从这里继续:
Bigtable
connection pool 我已经尝试了下面的代码,但不确定如何从这里开始: import com.google.
cloud
.
bigtable
.config.BigtableOptions;import com.google.
cloud
.
bigtable
.grpc.BigtableSess
浏览 22
提问于2019-04-09
得票数 1
2
回答
在
数据
流中执行聚合
java
、
google-cloud-platform
、
google-cloud-dataflow
、
apache-beam
、
google-cloud-bigtable
我将(时间序列)值存储在
Bigtable
中,并且遇到了一个需要对这些值应用filter并执行聚合
的
用例。我使用以下配置来获取
Bigtable
的
connection (执行范围扫描等): Connection connection = BigtableConfiguration.connect(projectId但是,我想要做
的
是,对某些列执行聚合并获得值。),然而,它需要Configuration,我需要一些运行在
Bigtable
上
的
东西(这样我就不需要使用低级
浏览 0
提问于2018-06-20
得票数 0
1
回答
使用Java/Scala将Spark Dataframe复制到Google
Cloud
Bigtable
scala
、
apache-spark
、
apache-spark-sql
、
spark-dataframe
、
google-cloud-bigtable
我正在使用Spark
进行
我
的
大
数据
操作,我想将我
的
Spark
数据
帧复制到Google
Cloud
Bigtable
。 有
没有
什么例子/库/API可以帮助我做到这一点?是用Java还是Scala?一个Java或Scala
的
例子会很有帮助。
浏览 1
提问于2018-04-17
得票数 1
1
回答
在脚本末尾发布引用
javascript
、
regex
、
variables
、
null
、
photoshop-script
我肯定有人问过这个问题,但我要说:// Release referencessrcDoc= null;如果
没有
IDE,那么我需要编写另一个脚本来查找对 /(var\s+)(.+)(\s+=\s+)(.+);?/gim
浏览 2
提问于2017-02-15
得票数 0
1
回答
在提交后读取已
删除
寄存器
transactions
、
firebird
、
firebird2.5
我有一个firebird 2.5
数据
库,我想知道是否有一种方法可以回滚已完成
的
事务。真的,我想问
的
是,那些能够访问firebird
数据
库文件的人是否能够读取在先前已完成
的
事务中
删除
的
数据
。我有一个进程(存储过程)
删除
一些寄存器和提交。对于能够访问
数据
库文件的人来说,这个寄存器可以恢复吗?
浏览 1
提问于2014-07-03
得票数 1
回答已采纳
1
回答
运行MSSQL查询时Nodejs内存泄漏
sql-server
、
node.js
、
memory-leaks
、
garbage-collection
、
tedious
mssql模块对MSSQL
数据
库运行查询,结果是相同
的
。如果我
删除
数据
库交互并对
数据
库结果
进行
硬编码,脚本永远不会崩溃。这些查询
似乎
导致了内存泄漏。当
垃圾
收集
发生时,我已经包含了以下模块来记录,并且它只在脚本
的
最开始运行: require('nodefly-gcinfo').onGC(function(usage, type, flags){console.log("GC Event O
浏览 0
提问于2015-01-11
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
回顾Bigtable的经典设计
Google白皮书介绍了GCP数据删除政策
弃用 Lambda,Twitter 启用 Kafka 和数据流新架构
欧洲专家呼吁:中欧间大数据合作 比贸易竞争更有意义
撸论文系列——Dapper
热门
标签
更多标签
云服务器
即时通信 IM
ICP备案
对象存储
实时音视频
活动推荐
运营活动
广告
关闭
领券