腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(1849)
视频
沙龙
1
回答
将Azure应用程序Insight日志
文件
导出到Azure
数据
湖
存储
、
、
我可以通过azure应用程序洞察力跟踪我的应用程序日志
文件
,并导出xls工作表( ),但是为了备份跟踪目的,我需要将所有日志
文件
存储到蔚蓝
数据
湖
存储中。我需要在我的应用程序上调试这个问题,当我面对issues.but时,我得到了和继续导出sql,blob存储的链接,我不想要不必要的存储来将我的
数据
存储在蔚蓝资源中。因此,如果有任何方式连接应用程序洞察力到Azure
数据
湖
通过连接器或plugins.IF,its,请您分享我的链接。 谢谢。。
浏览 2
提问于2017-05-30
得票数 5
2
回答
每月为数百万
数据
集提供Azure服务
我正在寻找一个Azure服务,它允许我每月记录2亿个
数据
集()。这些都是跟踪
数据
集,所以编写必须要快。有没有人知道一种有意义的Azure服务?
浏览 0
提问于2018-10-05
得票数 0
2
回答
当我试图连接Azure
数据
工厂和Azure
数据
湖
Gen2时出错
、
、
你好,Azure
数据
工厂的专家们,我尝试通过在Azure
数据
工厂中创建链接服务将Azure
数据
工厂连接到
数据
湖
Gen2,但是我得到了这个错误。谁能帮上忙呢?这可能是因为服务主体或托管标识没有足够的权限来访问
数据
。(2)。这可能是因为Azure Data的某些IP地址范围不被Azure存储防火墙设置所允许。Azure Data范围请参考。
浏览 4
提问于2021-10-29
得票数 0
回答已采纳
1
回答
使用Databricks将Google的结果写入一个
数据
湖
、
、
、
、
api返回的最大页面大小为1000,因此我将其命名为1000,以获得当天所需的
数据
。这很好用。我希望将
数据
保存在原始区域中的最小形式中,而不是应用太多的转换。这意味着第二个进程需要将JSON读取到一个
数据
文件
中,在这里我可以转换它并将它写成块(这个
浏览 0
提问于2019-04-11
得票数 2
回答已采纳
1
回答
如何在azure中创建api将
文件
从SFTP上传到azure
数据
湖
存储
、
、
、
、
我的要求是我想要创建api/azure函数从SFTP服务器上传
文件
到蔚蓝
数据
湖
存储,有什么参考项目或指南,请指导我。
浏览 3
提问于2022-07-15
得票数 0
1
回答
Azure Power-shell命令,用于获取Azure
数据
湖
文件
中的记录计数
、
我在Azure
数据
湖
存储
文件
夹位置上有一组
文件
。有没有什么简单的power-shell命令来获取
文件
中的记录数?我想在不使用Get-AzureRmDataLakeStoreItemContent命令的情况下对
文件
项使用Get-AzureRmDataLakeStoreItemContent命令。在大
文件
上使用此命令会产生以下错误。 错误: Get-AzureRmDataLakeStoreItemContent :
要
预览的剩余
数据
大于10
浏览 6
提问于2017-06-28
得票数 0
1
回答
如何在Databricks中迭代以读取
数据
湖
中存储在不同子目录中的数百个
文件
?
、
、
、
、
我必须从Azure
数据
湖
Gen2中读取
数据
库中的数百个avro
文件
,从每个
文件
中的Body字段中提取
数据
,并将所有提取的
数据
连接在一个唯一的
数据
中。要点是,所有
要
读取的avro
文件
都是存储在
湖
中不同子目录中的,如下所示:这迫使我循环摄取和选择
数据
。我正在使用这个Pyt
浏览 3
提问于2020-06-17
得票数 0
回答已采纳
2
回答
numpy.memmap:伪造内存分配
、
、
、
、
它将数组写入位于/tmp中的新生成的临时
文件
。然而,它可以在/tmp中以某种方式生成
10T
大
文件
,而相应的数组似乎仍然是可访问的。脚本的输出如下:该
文件
确实存在,并显示为
10T
大:-rw------- 1 user user 10995116277760Dec 1 15:50 /tmp/
浏览 1
提问于2015-12-01
得票数 2
回答已采纳
2
回答
未指定此请求所必需的写入parquet
文件
throws...An HTTP头
、
、
、
在我的Python Notebook中,我正在从一个存储帐户读取CSV
文件
,并在经过一些扩充后将其写入另一个存储中。 我在写拼图
文件
时遇到了下面的错误...
浏览 3
提问于2020-10-13
得票数 0
1
回答
将blob存储中的xslx csv
文件
转换为ADLS
、
、
我需要一些帮助来转换xslx,csv,它们位于azure存储区(删除某些行,重命名某个列名),并保存在adls中。有人能给我一些关于如何完成这一任务的一些想法或步骤,这将是非常有帮助的。谢谢你的帮助,真的很感激
浏览 2
提问于2021-09-29
得票数 1
回答已采纳
3
回答
Azure
数据
库将
文件
写入Azure Data 2
、
、
、
、
我有一个Azure
数据
湖
gen1和一个Azure
数据
湖
gen2 (Blob /层次结构),我正在尝试创建一个Databricks笔记本(Scala),它读取2个
文件
并将一个新
文件
写回Data。在Gen1和Gen2中,我都遇到了相同的问题,我指定的输出csv的
文件
名被保存为一个目录,在该目录中它正在编写4个
文件
“提交、启动、_SUCCESS和part-00000-tid-为了我的生命,我搞不懂它为什么
要
这么做,而不
浏览 0
提问于2019-05-05
得票数 0
1
回答
Azure DevOps按
文件
类型设置源代码管理签
入
权限
在Azure Devops源代码管理中是否可能阻止某些
文件
类型的签
入
?例如,
要
停止检
入
PowerBi (*.pbix)
文件
?或者,对于某些
文件
类型,更好的方法是强制执行额外的审计:(例如,记录签
入
用户是否删除了
文件
中包含的个人
数据
)
浏览 1
提问于2019-01-31
得票数 0
1
回答
我们可以使用REST API访问创建ODATA源的ADLA表中的
数据
吗?
、
如果ODATA可以通过REST API建立在azure
数据
湖
分析表的顶部,有没有办法?似乎有REST API来获取ADLA作业信息,帐户信息等,是否有这样的现有API来获取
数据
,或者是否有可能创建API来通过ODATA概念访问
数据
?
浏览 7
提问于2018-02-01
得票数 0
1
回答
为什么输出
数据
来分离
文件
?
、
、
、
、
为什么在使用Azure
数据
湖
或Azure Blob存储时,
要
创建单独的
文件
?有时流在一个
文件
中运行数天,而另一些时候每天生成几个新
文件
。看起来很随意吗?我将
数据
输出到CSV,查询保持不变,并不时生成一个新
文件
。我更希望它有一个大的CSV
文件
,因为我希望能够使用Power对
数据
运行长期统计
数据
,但当所有
文件
都具有一个看似随机的名称时,这似乎是不可能的。
浏览 4
提问于2017-11-21
得票数 0
回答已采纳
1
回答
将
数据
从Hadoop(前提下)加载到Azure
数据
湖
的不同方法
、
我有一个要求,从Hadoop (这是在前提Hortonworks集群)的
数据
加载到Azure
数据
湖
每8小时。你能告诉我-在实现解决方案时,这里可以尝试哪些不同的方法吗?
浏览 3
提问于2016-11-11
得票数 0
回答已采纳
2
回答
分阶段
数据
库需要哪些Azure产品?
、
、
、
、
我有几个使用Python脚本访问的外部
数据
API。我的脚本从就地服务器运行,转换
数据
,并将其存储在同一服务器上的server
数据
库中。我认为这是一个基本的ETL系统,使用Python和T运行。随着新API的出现,系统将有相当大的增长,并且需要更复杂的
数据
管道(例如,一些API
数据
将分拆到多个表中)。我花了几天时间研究Azure产品,这些产品可以让我运行Python脚本来访问web中的
数据
,并将处理过的
数据
存储在云
数据
库中。我在寻求关于其他人在类似工作中
浏览 0
提问于2018-11-07
得票数 0
回答已采纳
1
回答
在
文件
中使用getc
、
、
、
要
打印
文件
的内容,可以使用FILE *file = fopen("file.txt", "r"); while ((ch = getc(file)) !也就是说,它到底
多久
进行一次操作系统调用,或者需要花费相当长的时间?例如,假设我有一个10 to
文件
--调用这个函数数万亿次会不会是获取
数据
的糟糕方法?
浏览 2
提问于2021-02-16
得票数 0
回答已采纳
1
回答
TFS最大签
入
文件
数限制
、
、
我正在使用TFS API来管理我的应用程序
数据
的版本。在第一次使用时,我尝试将所有
数据
库
数据
转换到TFS工作区,然后签
入
被卡住了很长一段时间(如果不是永远卡住,可能需要超过几个小时),我
要
处理100,000-200,000个
文件
签
入
。在TFS中是否有签
入
文件
数量的限制?如果不是,这一行动的瓶颈是什么?将签
入
拆分成小的
文件
包会有帮助吗?如果是,有什么推荐的批量大小吗?
浏览 3
提问于2016-03-11
得票数 0
1
回答
使用PySpark将
文件
从一个Azure存储帐户复制到另一个
、
、
、
我试图将名字匹配的
文件
从一个Azure存储帐户(都在
数据
湖
存储中)复制到另一个。我目前正在尝试使用PySpark来完成这个任务。我列出
要
查看的
文件
夹,然后为"from“datalake设置set,并使用dbutils获取相关
文件
夹中的
文件
: spark.conf.set("fs.azure.account.key."list_of_files = dbutils.fs.ls("abfss://mycontain
浏览 7
提问于2021-09-07
得票数 0
回答已采纳
2
回答
如何计算
数据
库的空间需求
有人能为我指出
数据
库方面的大小指南吗?
浏览 5
提问于2013-12-03
得票数 1
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
存储架构升级,多源数据如何快速入湖?智能入湖通道它来了!
湖大体测大数据出炉,女生成绩好,男生要加油!
数据资产入表会计考试网:数据资产如何影响企业财务?考试准备需要多久?
批量创建几十个几十个文件夹要多久?三两秒就好,请跟我操作
大数据:北京人工作40天才能买,你要干多久?
热门
标签
更多标签
云服务器
ICP备案
腾讯会议
对象存储
云直播
活动推荐
运营活动
广告
关闭
领券