它的遥测数据,每小时都会出现在那里。我想将它们组合在一起,创建大的xml文件(每小时一个文件左右),并将其转换为大的csv file.Then,我想将其复制到azure data lake store中,这样我就可以使用U-SQL脚本对其进行进一步的分析请告诉我做这件事的正确方法。
现在我们正在使用azure批处理服务,它通过将所有文件名保存在Azure表存储中来做到这一点,批处理服务中的每个任务都会从表存储中读取数据,并在完成后进行更新。让我知道我<
我所要做的就是使用一个简单的Azure函数应用程序,使用Powershell从我的数据湖中读取一个文件(“/ out /samen.json”),然后使用它,最后将它写回湖里。我已经卡住了。:
2020-06-04T19:49:09Z错误::打开文件/stan/interests.json s.json的读取流时出错。要么资源不存在,要么授权用户执行请求的操作。)。,用于“connect”,并且使SP既是一个贡献者,也是