腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
0
回答
ADLS
java
sdk
数据
副本
、
、
有没有办法使用Azure
ADLS
java
SDK
通过安全通道复制
数据
?ADLFileOutputStream可用于将
数据
流式传输到
ADLS
。我想知道是否有安全的API来做这件事。
浏览 9
提问于2017-11-28
得票数 0
1
回答
如何从spark作业内向
ADLS
进行身份验证
、
、
、
我正在构建一个spark库,开发人员在编写spark作业以访问Azure data Lake上的
数据
时将使用该库。但身份验证将取决于他们所要求的
数据
集。我需要从spark job中调用rest API来获取凭据并进行身份验证,以便从
ADLS
读取
数据
。这有可能吗?我是spark的新手。
浏览 1
提问于2017-08-19
得票数 1
1
回答
如何确定Azure StorageV2 (带有分层命名空间的
数据
湖存储) BlobItem是否为虚拟目录
、
、
我有以下代码:var container = client.GetBlobContainerClient("my-container"); // do something about the item if it is a file我发现无法确定该项目是虚拟目录还是文件。我也尝试过client.GetBlobsByHierarc
浏览 4
提问于2022-07-19
得票数 0
回答已采纳
1
回答
将文件从移动电话复制到
ADLS
gen2
、
如何将这些文件上载到我的
ADLS
gen2存储帐户。我通常使用azcopy来复制,但是如何在android手机上完成呢? 是否有用于
ADLS
、gen2或任何其他
SDK
的上载文件rest?
浏览 2
提问于2020-01-02
得票数 0
回答已采纳
2
回答
ETL和ELT有什么区别?
、
、
我知道,在ETL中,我们转换
数据
并在
数据
仓库中加载。除了上述两行外,它们究竟有何不同? 一个比另一个有什么优势?在我的用例中,我在源
ADLS
(源层)中有源
数据
,当它使用azure Databricks时,我再次将
数据
摄取到我的
ADLS
(原始层)中,然后获取原始层
数据
并使用azure databricks转换
数据
,然后再存储在
ADLS
(最
浏览 4
提问于2022-10-10
得票数 3
1
回答
删除Azure
数据
湖Gen 2中的未刷新文件
、
、
action=append&position=<N>参数将
数据
追加到文件中 有一种方法可以告诉服务器,如果
数据
没有刷新(写),它应该使用多长时间。因为您需要先创建一个文件才能将
数据
写入其中,所以可能会出现这样的情况,即不会发生刷新,而且
数据
湖中会有一个空文件。任何信息都将不胜感激。
浏览 1
提问于2020-02-13
得票数 1
回答已采纳
2
回答
将
数据
从Azure
数据
湖加载到DSVM上的木星笔记本
、
、
、
、
我正在尝试将
数据
从Azure
数据
湖加载到我的
数据
科学VM中的木星笔记本。请注意,我是
数据
池存储的所有者,具有读取、写入和执行权限。带有木星的
数据
科学VM运行在相同的订阅下,属于同一资源组。PySpark hvacText = sc.textFile("adl://name.azuredatalakestore.net/file_to_read.csv$200(FileSystem.
java<
浏览 4
提问于2018-05-17
得票数 1
回答已采纳
1
回答
如何在
数据
工厂复制活动中插入文件操作
、
、
、
我正在使用
数据
工厂复制收集从蒙戈阿特拉斯到
ADLS
第二代。默认情况下,
数据
工厂将创建一个json文件每个集合。但这给我留下了一个巨大的json文件。我检查了
数据
流和转换,但是它们在
ADLS
中已经存在的文件上工作。我是否可以在
数据
进入
ADLS
时将其拆分,而不是首先获得一个巨大的文件,然后再对其进行后处理并将其拆分为较小的文件?如果集合大小为5GB,那么
数据
工厂是否有可能在
副本
运行时将它们分割成100 as的块?
浏览 6
提问于2022-02-18
得票数 0
2
回答
如何利用“天蓝色存储”包在Azure
数据
湖存储Gen2中创建容器内的文件夹
、
、
我使用Azure
数据
湖Gen2作为我的存储空间。在上传文件到相关文件夹之前,我需要创建不同的文件夹结构。 我使用的是"Azure-Storage“javascript库。
浏览 4
提问于2019-11-13
得票数 0
回答已采纳
1
回答
Python / DBUtils / Databricks
、
、
我是Python新手,需要
数据
库方面的帮助。使用spark.conf.set,我为Blob和
ADLS
设置了访问密钥。我使用dbutils.fs.cp复制文件。 它执行时没有任何错误,但文件实际上并没有被复制到
ADLS
。
浏览 0
提问于2019-11-19
得票数 1
1
回答
C#:将过滤器从C#传递到
ADLS
gen2存储并获得结果
、
、
、
、
我正在致力于角应用程序,它使用来自蔚蓝
数据
湖(gen2)的
数据
,并将其绑定到UI。 我不想下载整个blob文件,然后用C#进行处理。是否有可能将过滤器/查询传递给gen2 blob存储,并在存储它自身的情况下过滤
数据
?
浏览 2
提问于2019-12-07
得票数 0
回答已采纳
1
回答
Azure
SDK
客户端使用的正确测试凭据的有效性
、
、
在本例中,我采用
ADLS
帐户名和帐户密钥credentails。Azure
Java
SDK
没有为此提供API,我正在手动执行以下操作 def testConnection(account: String, accountKey: String): Boolean它们是否是检查用户
ADLS
凭据是否有效的其他更快的选项?
浏览 3
提问于2020-09-23
得票数 0
回答已采纳
1
回答
Azure
数据
湖-外部组织应用程序访问-身份验证方法
、
假设organisation A有一个Azure
数据
湖实例DL1。DL1实例中有两个容器,即container1和container2。使用Azure或
Java
的任何示例代码引用都会很棒。谢谢。
浏览 3
提问于2020-11-27
得票数 0
回答已采纳
2
回答
在aml服务中装载从Azure
数据
湖创建的
数据
集
我在挂载
数据
集(从azure
数据
湖
数据
存储创建)时遇到了问题。我按名称下载
数据
集,并尝试将其作为输入传递给Tensorflow估计器。
浏览 27
提问于2019-10-25
得票数 0
3
回答
如何在没有HDInsight的情况下使用NiFi直接从
ADLS
进行读/写
、
、
、
我们希望使用NiFi连接
ADLS
(使用PutHDFS和FetchHDFS),而不必安装HDInsight。
浏览 0
提问于2018-09-10
得票数 2
2
回答
使用
Java
SDK
将文件从本地上载到Azure Datalake Store
、
、
、
有没有办法使用
Java
SDK
将文件从本地上传到
ADLS
?我尝试使用以下代码上传,但代码没有编译,因为它显示构造函数不可见。
浏览 9
提问于2018-02-14
得票数 0
2
回答
Azure
数据
工厂转义字符和引用问题-复制活动
、
、
、
、
我让ADF管道将
数据
从Azure SQL db导出(通过复制活动)到data Lake (
ADLS
2),然后从那里导出到另一个Azure SQL db。在一些角色出现之前,它一直运行得很好。这是罪魁祸首记录在第一个Azure SQL
数据
库中的外观:"Gasunie\ 下面是导出文件在notepad++ (以竖线分隔的文件)中的样子
浏览 6
提问于2020-05-04
得票数 1
1
回答
使用Azure Data Lake Store .net开发工具包的Usql
、
、
你能建议我可以将Usql与Azure Data Lake Store .net
SDK
一起使用吗?实际上,我需要上传一些文件到
数据
湖存储,所以我需要使用Azure data lake store
SDK
,我还需要在Azure sql server
数据
库中添加一些记录。
浏览 0
提问于2017-05-08
得票数 1
1
回答
如何在AZURE中调度调用认知API的自定义代码
、
、
、
、
我们的目标是将下载的文件存储在AZURE
数据
湖存储区,比如说/sample/ImageIPCam1/Image2.jpg/Output/CustImage/Image3.jpg 与上面的结果一样,清除了Image2.jpg在暂存文件夹中的
副本
。**到目前为止实现**我们使用.net
浏览 1
提问于2017-05-12
得票数 1
1
回答
向great_expectations的火花会话添加jars
、
、
设置: 我的
数据
在Azure Gen2上。我想使用great_expectations包来测试我的
数据
质量。我正在使用InferredAssetAzureDataConnector data_connector来创建我的
数据
源(这很有效,我可以在创建过程中看到我在
ADLS
上的文件)。我正在尝试创建一个测试套件,用自动分析器来检查
数据
。该过程失败,因为我需要将org.apache.hadoop:hadoop-azure:3.3.1 jar添加到星火会话中,以便spark作业能够访问和分析
ADLS</
浏览 6
提问于2022-07-05
得票数 0
回答已采纳
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
对象存储
云点播
实时音视频
活动推荐
运营活动
广告
关闭
领券