在Azure Data中,我有一个管道,它是从内置的复制数据任务中创建的,它复制来自12个实体(活动、领导、联系等)的数据。从Dynamics (使用链接服务)并将内容输出为帐户存储中的parquet文件。这是每天运行,以文件夹结构为基础的日期。容器中的输出结构如下所示:
这只是一个例子,但是管道运行的每一年/月/日都有一个文件夹结构,我正在检索的12个实体中的每个实体都有一个parquet文件。
这涉及创建管道、源数据集和目标数据集。我修改了管道,将管道的运行日期/时间作为一个列添加到parquet文件中,称为RowStartDate (在下一个处理阶段我将需要它)
下一步是将数据处理到一个暂存区域,然后将其输出到容器中的另一个文件夹中。我的计划是创建12个脚本(一个用于竞选,一个用于领导,一个用于联系人等)。这基本上做到了以下几点:
/campaign.parquet
通过使用OPENROWSET在上面的路径中使用通配符运行查询,我在SQL中找到了一些进展,但我认为我无法使用ADF中的SQL脚本将数据移动/处理到容器中的一个单独文件夹中。
我的问题是,我如何做到这一点(最好是在ADF管道中):
对于我的12个实体中的每个实体,按照我前面描述的逻辑访问容器中的每个事件/CRM//*/ statement
我试过:
使用Azure dataset的
谁能给我指明正确的方向。我最好的方法是什么?如果是我上面描述过的问题,我该如何克服我所描述的问题呢?
发布于 2022-06-13 07:50:51
从管道data flow活动设置传递data flow数据集参数值。

https://stackoverflow.com/questions/72547903
复制相似问题