腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
ADF
中
的
复制
数据
活动
会
创建
奇怪
的
临时
文件名
、
、
、
我正在使用Copy Data
活动
将
数据
库表
的
内容作为.csv文件上传到使用自托管集成运行时
的
服务器。 FTP站点
的
“所有者”指出,他们看到
的
是“
奇怪
的
”
文件名
,即指定
文件名
后附加
的
guid。然而,当我查看上传
的
文件时,这个后缀就消失了。因此,看起来Copy Data
活动
(a) creates the file with a guid in the name, (
浏览 8
提问于2021-07-29
得票数 0
1
回答
验证
ADF
调试
复制
数据
的
“移动和转换功能”
、
、
通过编写以下
活动
,我将
ADF
用作将
数据
从Cosmos写入Kusto
数据
库
的
管道:所有这些更改都是我
的
GIT
中
JSON文件
的
一部分。我在
浏览 2
提问于2021-06-11
得票数 0
回答已采纳
1
回答
如何在Azure
数据
工厂中使用For each activity合并文件
我正在使用
ADF
将文件从文件服务器
复制
到Azure Blob存储。目录
中
的
文件具有相同
的
结构,但没有标题,我需要将它们合并到Blob存储
中
的
单个文件
中
。 ? 我
创建
了一个
ADF
管道,它使用get元
数据
来获取childItems,并让每个
活动
逐个遍历文件 ? 在For each
活动
中有一个
复制
数据
活动
浏览 34
提问于2021-07-06
得票数 1
1
回答
Azure
数据
湖
的
数据
类型
我将从基于SAP HANA
的
OLTP源
数据
带到微软基于azure
的
数据
湖,使用azure
adf
和
数据
块。在基于Microsoft
的
数据
湖
中
,在SAP HANA源
的
以下
数据
类型
中
,
数据
类型应该是什么: nvarchar(64
浏览 7
提问于2022-02-05
得票数 0
1
回答
ADF
读取存储
中
的
第三级文件
、
-Market 2 - Category 3,4 - Files.csv 文件总是在“类别”文件夹
中
。为此,我需要
文件名
和路径。如何在
数据
工厂
中
实现这一点。我还试图找出是否可以将
数据
集配置为从第三级读取,但没有运气。我可以使用解释过
的
方法,但是性能
会
很差,我不想使用任何其他资源,比如azure函数。 我不能使用
复制
,因为我需要根据文件
的</em
浏览 2
提问于2022-09-16
得票数 0
回答已采纳
1
回答
从ZIP文件
中
解压缩文件,并将其用作
ADF
拷贝
活动
中
的
源
、
、
我看到有一种压缩ZIP文件
的
方法,但是当ZIP中有多个.csv文件时,我如何指定哪个文件作为我
的
复制
活动
的
源?它现在解析两个csv文件,并将其作为单个文件提供,但我无法选择我想要
的
文件作为源文件
浏览 16
提问于2020-05-10
得票数 2
1
回答
没有在
复制
活动
中
检测或更改
数据
类型/模式
的
选项
、
我试图从.json blob获取
数据
,检测列
数据
类型&保存到表、Cosmosdb或其他位置。json列没有类型,都是作为字符串导入
的
。在
复制
活动
、
数据
流或源
数据
类型上,我看不到/没有“检测
数据
类型”按钮。此外,我无法手动更改列类型。 我不确定我是否采取了行动来触发限制等。
浏览 2
提问于2019-10-09
得票数 0
1
回答
APIM资源健康史超过4周
、
我们已经使用APIM多年了,它通常不是一个坏
的
平台,相当稳定和可靠。我们最近登上了一位相当大
的
客户,根据墨菲定律
的
最佳做法,APIM在第一天
的
某一天就下跌了将近一个小时。显然没人
会
高兴。
浏览 2
提问于2022-10-06
得票数 0
1
回答
Azure Data V2
复制
活动
-保存所有
复制
文件
的
列表
、
我有管道,可以将文件从现场
复制
到不同
的
接收器,如就地和SFTP.我想保存在每次运行
中
复制
的
所有文件
的
列表,以供报告。谢谢
浏览 0
提问于2020-12-05
得票数 1
回答已采纳
2
回答
因为-每个文件都是同时在蔚蓝
数据
工厂
中
传递所有文件
的
。
、
、
、
我是Azure
的
新手,每次
活动
都会遇到麻烦。Vendors-files2nd-loop: Transactions-files3rd-loop: Orders-files4th-loop: Customers-files5th-loop母线下面是实际文件6
的
计数,这就是为
浏览 3
提问于2021-01-31
得票数 1
3
回答
用Azure
数据
工厂LastModifiedDate V2
复制
新文件和更改文件
、
、
使用
复制
活动
,我只需要在文件夹
中
获取最新
的
文件。File1但是,它同时接收了这两个文件。我跟着:截止日期: utcnow() 我希望仅在指定
的
范围日期内获取最后修改
的
文件
浏览 1
提问于2019-08-06
得票数 2
回答已采纳
2
回答
如何在Azure
中
执行MySQL删除查询?
、
、
、
我想使用
ADF
删除MySQL DB记录。 我已经在
ADF
中
创建
了管道,我正在使用
ADF
中
的
复制
活动
将
数据
从MySQL
数据
库
复制
到存储帐户,一旦完成,我想从MySQL
数据
库
中
删除那些
复制
的
记录。我无法找到任何允许从MySQL
数据
库
中
删除记录
的
活动</e
浏览 10
提问于2022-06-30
得票数 0
3
回答
为什么
ADF
数据
集很重要?
、
在Azure Data v2
中
,我
创建
了许多管道。我注意到,我
创建
的
每个管道都
创建
了一个源和目标
数据
集。根据
ADF
文档:
数据
集是一个命名
的
数据
视图,它简单地指向或引用您想要作为输入和输出在
活动
中使用
的
数据
。 这些
数据
集在我
的
数据
工厂
中
可见。我很好奇为什么我会在乎这些?这些看起来就像
AD
浏览 1
提问于2018-06-13
得票数 1
回答已采纳
2
回答
如何删除源
数据
集(JSON)
中
的
重复项并将
数据
加载到azure
数据
工厂
的
azure SQL DB
中
、
、
、
我在SQL DB中有一个包含主键字段
的
表。现在,我在azure
数据
工厂中使用了一个具有源
数据
集(JSON)
的
复制
活动
。我们正在将此
数据
写入接收器
数据
集(SQL DB),但管道失败,并显示以下错误 "message": "'Type=System.Data.SqlClient.SqlException,Message=Violation
浏览 0
提问于2019-08-07
得票数 1
1
回答
Azure
数据
工厂-删除
活动
的
错误
、
、
、
为了学习目的,我正在
创建
一个测试Azure Data管道。Get元
数据
:从Blob 1筛选器
中
检索文件列表:从以前
活动
的
输出、筛选文件夹和文件输出列表移动文件:从以前
的
活动
获取输出,将文件从Blob 1移动到Blob 2
ADF</em
浏览 1
提问于2020-02-01
得票数 0
回答已采纳
3
回答
Azure
数据
工厂在
复制
到Blob存储时指定自定义输出
文件名
、
、
我目前正在使用
ADF
按计划将文件从SFTP服务器
复制
到Blob Storage。AAAAAA/BBBBBB/CCCCCC.txt
浏览 3
提问于2017-10-26
得票数 10
1
回答
在读取Azure Data v2
中
的
文件时,如何从
文件名
(即日期)中提取子字符串?
、
、
、
、
我有一个管道,在这里我试图用客户端
数据
处理CSV文件。该文件位于Azure Gen1
中
,它由来自特定时间(即2019年1月至2019年7月)
的
客户端
数据
组成。因此,
文件名
将类似于"Clients_20190101_20190731.csv“。 从Data v2
中
,我希望读取
文件名
和文件内容,以验证内容(或特定日期列)是否与
文件名
的
日期范围实际匹配。所以问题是:我如何读取
文件名
,从名称中提取日期,并使用它们来
浏览 0
提问于2020-08-05
得票数 0
1
回答
Azure
数据
工厂通配符
、
、
我得到了一个通常放置.csv文件
的
sftp位置,然后我们使用
ADF
Copy
活动
处理或拉取存在于此
的
文件。当不存在文件时,我们给出确切
的
文件名
并运行管道,它会失败,这与预期不谋而合。但是,当我们给出一个通配符,比如abc*.csv,并且在sftp位置不存在文件
的
情况下运行管道时,
复制
活动
会通过写入
的
行数为0
的
情况。谁能告诉我为什么
会
这样。我们使用
的
是
Adf
浏览 20
提问于2019-06-14
得票数 2
回答已采纳
1
回答
如何并行化
数据
工厂自定义
活动
?
、
最初,它是一次性转换,但稍后我们将收到每日文件,因此我实现了一个自定义C#
活动
以在
数据
工厂
中
运行。当我第一次使用D14 v2 VM
的
批处理帐户运行此
活动
时,它一次转换一个文件,每个文件需要20-25分钟才能转换。这加起来超过了一周,如果我们出于某种原因需要重新运行转换,那么这个时间就太长了。有没有什么好
的
方法来并行化这个转换? 输入和输出文件都存储在blob存储
中
的
两个单独
的
容器
中
。输入文件大小约为50 Mb,输出文
浏览 0
提问于2017-05-18
得票数 0
1
回答
我们能在Azure自动化ETL吗?
、
、
、
、
我目前正在进行一个非常有趣
的
ETL项目,使用Azure手动转换我
的
数据
。但是,当我开始处理多个源文件时,手动转换
数据
可能
会
让人筋疲力尽,而且
会
很长。我
的
管道目前运行良好,因为我只有几个文件需要转换,但如果我有数千个excel文件怎么办?因此,我想要实现
的
是,我想扩展项目,并提取来自电子邮件
的
excel文件,使用逻辑应用程序,然后将ETL直接应用于它们之上。有没有办法让我在Azure
的
ETL自动化。我可以在不手动修改不
浏览 2
提问于2020-05-29
得票数 1
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
Excel数据表复制到Word后,Word中的表格会自动随Excel实时更新
tempfile.NamedTemporaryFile创建临时文件在windows没有权限打开
SQLite 如何变成 内存数据库
Python 文件与目录操作方法总结
PHP基础(四)
热门
标签
更多标签
云服务器
ICP备案
对象存储
腾讯会议
云直播
活动推荐
运营活动
广告
关闭
领券