腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
如果
Janusgraph
有
大约
70G
的
数据
,
它
大约
需要
多长时间
来
重新
编制
索引
、
我在
Janusgraph
中有
大约
70G
的
数据
。我已经计划在边缘添加一个新
的
索引
。
重新
编制
索引
大约
需要
多长时间
?
浏览 18
提问于2020-07-10
得票数 0
4
回答
在Server上
重新
索引
需要
多长时间
?
、
、
我最近继承了一个非常大而且非常混乱
的
数据
库,
需要
清理
它
。为了了解大小,主
数据
库目前包含3个大表,每个表
大约
有3亿行,占用了
大约
225 up
的
存储空间。每天增加500多万行。由于磁盘空间严重短缺(前辈根本没有存档旧
数据
或管理其大小),我不得不从最大
的
表中删除
大约
2.8亿行。这个过程花了超过25个小时才完成,在此期间,
数据
库
需要
从面向客户
的
应用程序中
浏览 0
提问于2009-11-12
得票数 6
回答已采纳
1
回答
通过SQL
重新
索引
Magento
、
、
、
有没有一种方法可以在magento
的
后端通过SQL语句调用reindexing?我
有
一堆向magento添加产品
的
脚本,我们
需要
在
它
之后
重新
编制
索引
,我们
有
一个计划
的
作业
来
运行这些脚本,我想在他们完成后
重新
编制
索引
,这样在脚本完成后
它
总是会
重新
编制
索引
,无论它们花了
多
浏览 2
提问于2012-11-29
得票数 0
回答已采纳
1
回答
magento2
重新
索引
非常慢
、
、
我
的
magento2网站现在有
大约
180000 skus在商店。bin/magento indexer:reindex catalog_product_attributebin/magento indexer:reindexcatalogsearch_fulltext
大约
需要
三个多小时才能完成。是否可以<
浏览 3
提问于2021-11-29
得票数 0
6
回答
有没有办法限制Mysql表
的
索引
,这样整体性能就不会受到影响?
、
、
我
需要
将一个大型
数据
集加载到生产
数据
库中。 每个15文件都
需要
上传到并插入到一个表中。每个约为500Mb。 我
有
两个ID列
需要
编制
索引
。
如果
我加载带有
索引
的
文件,上传
大约
需要
3个小时。
如果
我删除
索引
,加载
数据
本地infile,然后
重新
添加
索引
,整个操作
大约
<
浏览 39
提问于2011-05-10
得票数 17
1
回答
vespa - Vespa进程通常
需要
多长时间
启动才能重建mmap
的
属性?
在将
索引
定义编写为“属性”时,我从中读到,它将字段保存在内存中。基本问题是:
如果
集群
重新
启动这个内存中
的
数据
是从
索引
重建? 在
重新
启动集群以重建内存中
的
属性时,Vespa
需要
多长时间
?(假设一个节点
有
2TB
的
数据
,其中一半字段被定义为“属性”--mmap
大约
有1TB?)
浏览 0
提问于2017-10-11
得票数 4
回答已采纳
1
回答
当返回所有结果时,Elasticsearch要慢得多
、
、
我
有
大约
20,000份文件存储在弹性搜索中,每个
大约
200 in。通常情况下,我会看到这是因为
它
必须继续搜索,直到找到所有它们,这
需要
额外
的
时间。请注意,我不会在这里返回_source字段,我只想要返回_ids
的
列表,所以我无法想
浏览 1
提问于2014-03-18
得票数 0
1
回答
在PostgreSQL中
重新
索引
大型臃肿
索引
的
好处
、
我在1.86TB表上有一个228 on
的
索引
。在内存为768 on
的
主机上,我
的
shared_buffers是225 on。指数膨胀了75%。在
重新
编制
索引
之后,我得到了
大约
85 get
的
数据
。我认为我目前对旧
索引
的
查询时间和以前一样好。Postgres文档确实说,Btree
索引
不
需要
维护基准缺失。考虑到我在其他大型表上有其他大型
索引</
浏览 0
提问于2020-04-03
得票数 2
1
回答
刷新Plone ZCatalog中
的
非
索引
元
数据
、
、
Zope目录包含具有
索引
属性(用作查询参数)和元
数据
属性(在访问搜索结果时可用)
的
目录对象。对于
索引
属性,当
索引
的
计算逻辑发生变化时,
有
可能
重新
编制
索引
。我注意到,对于基于原型
的
内容类型之一,我
的
getThumbnailPath元
数据
字段不正确。当然,元
数据
字段内容不会在方法更改时自动更改;因此,我想在升级步骤中修复这个问题。然而,对于元
浏览 1
提问于2017-05-15
得票数 3
回答已采纳
1
回答
ElasticSearch可以删除所有文档并在单个查询中插入新文档吗?
、
、
我想将所有文档替换为特定
索引
的
类型。我认为这是一个
数据
库事务,我会: 在ElasticSearch
的
散装API中,这似乎是可能
的
,但是还有更直接
的
方法吗?
浏览 2
提问于2013-12-10
得票数 0
回答已采纳
1
回答
使用
索引
变量
的
唯一值创建
数据
集
我
有
一个包含
大约
74,000,000个观测值
的
数据
集(LRG_DS)。
数据
集已由具有
大约
7500个唯一值
的
变量(I_VAR1)
编制
索引
。我通过在
数据
集上运行proc contents发现了这一点。我想创建一个只包含
索引
变量
的
7000个唯一值
的
数据
集(TEMP)。run; 和 proc sort data = LRG_DS nodupkey out
浏览 13
提问于2018-12-21
得票数 0
回答已采纳
2
回答
一次只写一个文档给Lucene
索引
,随着时间
的
推移,
它
的
速度会减慢。
、
、
、
我们
有
一个程序,它不断地运行,做各种各样
的
事情,并更改我们
数据
库中
的
一些记录。这些记录使用Lucene
编制
索引
。
如果
一切顺利,提交db事务并提交IndexWriter。 这很好,但是随着时间
的
推移,indexWriter.commit()
需要
越来越多
的
时间。最初,
它
大约
需要
0.5秒,但在几百个这样
的
事务之后,
它
需
浏览 5
提问于2015-08-28
得票数 9
回答已采纳
2
回答
访问边而不迭代顶点
、
、
我目前正在hadoop环境中使用
janusGraph
。我已经在图中加载了更多
的
顶点(
大约
50万),并获得了主键运行
的
索引
。迭代每个顶点
大约
需要
3分钟。我目前在我
的
图形中有0条边。为了加载我
的
图形边缘,我正在读取一个包含
数据
的
csv文件。由于我有时面临超时(因为环境),我一直在寻找顶点
的
计数,然后跳到正确
的
行在csv,
重新
启动加载。然而,要求边缘计
浏览 0
提问于2017-06-12
得票数 1
3
回答
索引
重建/重组频率
、
、
、
、
我正在进行
索引
重建/重组。一旦我习惯于执行这些任务,我很想使用一些脚本。我确实浏览了一些关于这个主题
的
论坛页面。我
有
一个SQLServer2008R2实例,它有
大约
25个不同大小和
需要
的
数据
库。我被指派为8个
数据
库做
索引
调优。由于
索引
的
大小、分段级别、
索引
的
编号以及去碎片发生
的
速度因
数据
库而异,我理解有些
数据<
浏览 0
提问于2014-10-14
得票数 0
1
回答
转储postgres DB、时间和.sql文件权重
、
我
有
一个大
的
db (nominatim db,用于地址地理编码反向),
大约
408 db大。 现在,为了向客户提供估计,我想知道导出/
重新
导入过程
需要
多长时间
,以及.sql转储文件
有
多大。谢谢大家
的
回答,不管怎么说,为了恢复被转储
的
数据
库,我没有使用命令pg_restore而是使用了psql -d newdb -f dump.sql (我在官方文档中读到了这个)。这是因为我必须在另一台机器上设置这个
数
浏览 2
提问于2015-12-15
得票数 2
2
回答
优化具有近150百万条记录
的
后置
数据
库
、
、
、
我正在使用Azure Post距DB存储
大约
1.5亿张唱片。DB
的
规范是:160 DB存储和
大约
4GB RAM。当加载到DB中时,
数据
集
大约
为80 DB。
数据
集将不会增长,但将保持在80 - 85 GB左右。我用explain分析查询,这表明查询确实使用
索引
。, 是否
有
任何提高性能
的
方法(SQL )?不同
的
索引
算法或策略?在计算给定
数据
大小
的
内存和存储需求时是否<
浏览 1
提问于2021-09-07
得票数 0
回答已采纳
2
回答
面向文档
的
dbms作为主
数据
库,RDBMS作为次要
数据
库?
、
、
、
、
由于MySQL
数据
库
的
规范化,
它
的
性能出现了一些问题。几个月前我遇到了一个交叉
的
解决方案,就是使用一个更快、更线性
的
基于文档
浏览 3
提问于2011-10-12
得票数 0
回答已采纳
2
回答
处理大量
的
文件
、
、
、
、
我目前正在从事一个研究项目,其中涉及
索引
大量文件(240 K);它们主要是html、xml、doc、xls、zip、rar、pdf和文件大小从几KB到超过100 MB
的
文本。我使用Visual 2010、C#和.NET 4.0,支持TPL
数据
流和异步CTP V3。为了从这些文件中提取文本,我使用Apache (用ikvm转换),并使用Lucene.net 2.9.4作为
索引
器。我希望使用新
的
TPL
数据
流库和异步编程。我
有
几个问题:
如果
我使用TPL
浏览 2
提问于2012-05-05
得票数 9
5
回答
SQL Server中磁盘队列长度高
的
原因
、
我
有
一个相当高吞吐量
的
应用程序,偶尔会决定崩溃。这种情况并不常见--
大约
每3周左右就有一次。
如果
是这样的话,
如果
我签出perfmon,我就会看到100%
的
“Avg.Disk队列长度”与服务器挂钩。在这段时间里,我还看到了许多来自Server
的
连接失败消息。是什么导致了这样
的
事情?我在想,也许这是对
数据
库大小
的
调整(
它</
浏览 0
提问于2012-05-07
得票数 5
回答已采纳
1
回答
有没有可能在MySQL中增加varchar
的
最大大小而不进行转换?
我
有
一个包含
大约
2000万行
的
MyISAM表,并且
需要
增加varchar
的
最大大小。无论我如何表述ALTER table查询,
它
总是花费很长时间,因为MySQL将所有
数据
复制到一个临时表中,对其
重新
编制
索引
,等等-
它
似乎认为
数据
需要
转换。因为
它
已经是一个varchar了,所以我认为它不
需要
做这些事情。 有没有什么方法可以强迫My
浏览 0
提问于2010-09-23
得票数 4
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
热门
标签
更多标签
云服务器
ICP备案
云直播
对象存储
实时音视频
活动推荐
运营活动
广告
关闭
领券