首页
学习
活动
专区
圈层
工具
发布
首页
学习
活动
专区
圈层
工具
MCP广场
社区首页 >问答首页 >为什么对内存优化的非持久表的大容量插入速度与持久表相同?

为什么对内存优化的非持久表的大容量插入速度与持久表相同?
EN

Stack Overflow用户
提问于 2017-05-05 20:52:20
回答 1查看 1.2K关注 0票数 0

当在持久内存优化表和非持久内存优化表中运行大容量插入时,我将获得相同的速度。大容量插入到非持久内存优化表的速度不应该比持久内存优化表更快吗?如果是这样的话,我在这里做错了什么?

我的测试如下,它需要持续30秒。这是在Server 2016 SP1上进行的。大容量插入来自我生成的csv文件中的1000万行。

SQL

代码语言:javascript
运行
复制
CREATE TABLE Users_ND (
  Id INT NOT NULL IDENTITY(1,1) PRIMARY KEY NONCLUSTERED HASH WITH (BUCKET_COUNT=10000000),  
  Username VARCHAR(200) NOT NULL  
) WITH (MEMORY_OPTIMIZED=ON, DURABILITY = SCHEMA_ONLY);  

CREATE TABLE Users_D (
  Id INT NOT NULL IDENTITY(1,1) PRIMARY KEY NONCLUSTERED HASH WITH (BUCKET_COUNT=10000000),  
  Username VARCHAR(200) NOT NULL  
) WITH (MEMORY_OPTIMIZED=ON, DURABILITY = SCHEMA_AND_DATA);  

SET STATISTICS TIME ON;
SET NOCOUNT ON;  

BULK INSERT Users_ND 
FROM 'users-huge.csv' 
WITH (FIRSTROW = 2, FIELDTERMINATOR = ',', ROWTERMINATOR = '\n', BATCHSIZE = 1000000);

BULK INSERT Users_D 
FROM 'users-huge.csv' 
WITH (FIRSTROW = 2, FIELDTERMINATOR = ',', ROWTERMINATOR = '\n', BATCHSIZE = 1000000);

users-huge.csv

代码语言:javascript
运行
复制
Id, Username
,user1
,user2
...
,user10000000
EN

回答 1

Stack Overflow用户

回答已采纳

发布于 2017-05-10 13:45:52

结果我出现了这个问题,因为批量插入的源文件保存在一个缓慢的HDD上,因此在读取该文件时出现了瓶颈。

票数 3
EN
页面原文内容由Stack Overflow提供。腾讯云小微IT领域专用引擎提供翻译支持
原文链接:

https://stackoverflow.com/questions/43813573

复制
相关文章

相似问题

领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档