腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
3
回答
通过
pyspark
在
databricks
上
的
数据库
中
查找
具有
特定
列名
的
表
、
、
、
、
我想
通过
pyspark
sql
在
databricks
上
的
数据库
中找到
具有
特定
列
的
表
。 我使用了以下代码,但它不起作用。https://medium.com/@rajnishkumargarg/find-all-the-tables-by-column-name-in-hive-51caebb94832
在
SQL server
上</em
浏览 46
提问于2019-12-12
得票数 4
6
回答
如何在一个
表
中
搜索
特定
的
列名
、
、
我已经
在
stackoverflow
上
搜索了这个问题,但大多数问题都比我想要
的
要深一些。许多问题都与
查找
具有
特定
列名
的
表
有关。 我
通过
SSMS连接到
数据库
。我已经找到了要用SELECT * FROM Item搜索
的
表
。
在
Item
表
中
,我想搜索所有字段名(或
列名
),并对包含
特定
字
浏览 22
提问于2018-07-24
得票数 0
2
回答
通过
Spark将csv文件加载到现有配置单元故事
中
、
、
、
、
下面是我编写
的
代码,用于连接到关系
数据库
管理系统,然后创建临时
表
,
在
该临时
表
上
执行SQL query,
通过
databricks
模块将SQL查询输出保存为.csv格式。from
pyspark
import SparkContextfrom
pyspark
.sql import SQLContex
浏览 30
提问于2017-12-22
得票数 0
回答已采纳
5
回答
使用
列名
编写csv,并读取从
Pyspark
中
的
闪烁is数据names生成
的
csv文件
、
、
、
我已经用
数据库
csv包启动了shell。然后,我读取了一个csv文件,
通过
op完成了一些操作,并将其转储到csv
中
。am not getting any columns in that..1st row becomes column names 请不要回答,比如在read_csv之后向datafra
浏览 6
提问于2016-07-27
得票数 37
回答已采纳
1
回答
Databricks
与Kafka架构注册
表
的
集成
、
、
、
我已经开发了一个
databricks
管道,它使用Kafka主题中
的
数据。目前,我正在
通过
在
Pyspark
中
手动定义模式来进行处理。我知道Kafka模式注册
表
也是由Kafka团队设置
的
,我收到了注册
表
URL。 请指导我如何
通过
Databricks
中
的
pyspark
程序连接到模式注册
表
。谢谢
浏览 12
提问于2021-05-20
得票数 1
1
回答
从外部连接到
数据库
托管蜂巢
、
、
、
我有:A kubernetes集群在
数据库
使用
的
相同
的
Azure blob存储区
中
以拼花和/或Delta格式读写数据(
通过</em
浏览 1
提问于2021-08-19
得票数 2
1
回答
通过
DataBricks
中
的
Spark向雪花
数据库
授予权限
、
、
、
我目前使用
的
角色,比如main_user,
具有
对
特定
雪花
数据库
的
完全权限,比如live_database。temp_user说,还有一个角色目前没有任何与这些数据相关
的
权限。
在
雪花用户界面
中
,我可以简单地运行以下查询,临时用户可以按照预期进行访问。
中
运行一个模型,并
通过
一个Spark连接器从/写到前面提到
的
雪花
数据库
。不幸
的
是,每次我
在
浏览 2
提问于2021-03-08
得票数 0
回答已采纳
1
回答
Azure Data Lake
在
存储用于Power BI可视化
的
SQL
数据库
方面有多好?
、
、
、
我们希望将转换后
的
数据存储
在
Azure
数据库
中
,并将其用作power BI仪表板
的
来源。一方面,我们希望
在
仪表板
上
显示“几乎”实时
的
数据(由于转换等原因造成
的
延迟是可以接受
的
,但是仪表板需要非常频繁地刷新,比方说每分钟刷新一次),但我们也希望存储转换后
的
数据并在以后查询它,例如,仅在给定
的
一天可视化数据有没有可能将熊猫
的
DataFrame转换成SQL,并将其存储<
浏览 15
提问于2020-07-24
得票数 0
回答已采纳
6
回答
如何在Apache预构建版本
中
添加任何新
的
库(如Spark csv)
、
、
我已经构建了,并能够使用下面的命令使用同样
的
pyspark
错误获取Traceback (most recent call last): File "<stdin>",line 1, in &l
浏览 13
提问于2015-06-10
得票数 26
回答已采纳
2
回答
如何使用
数据库
查询外部蜂巢
表
、
、
我
在
一些VM
上
运行了一个
Databricks
集群。我
的
组织有一个Hadoop集群,其中有一些我想要
的
数据。我没有访问Hadoop集群
的
权限,只有一个JDBC (我
的
所有权限都已经整理好了,它们只给了我一个URL)。 我可以
在
本地机器(Dbeaver)
上
打开
数据库
管理工具,并成功地查询Hive
表
。但是,我很难使用
Databricks
和
PySpark
查询Hive<em
浏览 2
提问于2020-04-16
得票数 2
1
回答
如何在本地模拟和测试
数据库
、
、
、
我如何模拟一个项目的现有代码(由其他人编写),并在windows机器/Anaconda
上
本地运行它们以进行测试和实践?是否有可能模拟这些代码,或者我需要在
Databricks
上
创建一个新
的
集群,用于我自己
的
测试?谢谢
浏览 1
提问于2022-03-17
得票数 1
1
回答
使用配置单元元数据读取HDFS文件-
Pyspark
、
、
、
、
我是
PySpark
新手,正在尝试读取HDFS文件(上面创建了hive
表
)并创建
PySpark
数据帧。
通过
PySpark
读取配置单元
表
非常耗时。有没有什么方法可以动态获取hive
列名
(用作dataframe
中
的
模式)?我希望将文件位置、
表
名和
数据库
名作为输入传递给aa程序/函数,以便从配置单元元数据(可能是元数据xml)
中
获取模式/
列名
称,并作为
浏览 15
提问于2019-03-06
得票数 0
回答已采纳
7
回答
在所有
数据库
中
搜索
列名
、
我有一个查询,它
查找
与
特定
数据库
的
列名
相匹配
的
所有
表
和视图。我正在使用SQL SERVER 2008。SELECT table_name FROM information_schema.columns我希望扩展我
的
查询功能,以便在所有
数据库
中
搜索,甚至
查找
具有
我搜索
的
<em
浏览 7
提问于2012-08-21
得票数 9
1
回答
如何修复
databricks
中
的
SQL查询(如果
列名
中有括号)
、
我有一个有像这样
的
数据
的
文件,我把这个文件转换成一个
databricks
表
。输出:123 Mobile456 laptopSelect * from myTable where Product[name]='laptop' 下面是
浏览 1
提问于2022-05-18
得票数 0
1
回答
如何在从信息模式中找到
表
名后更新
列名
我已经运行了一个脚本,使用信息模式从
数据库
中
查找
具有
特定
列名
的
表
名,下面是查询 select * from information_schema.columnswhere column_name like 'COMPANY_ID%'
在
找到
表
名之后,我想要更新所有
数据库
的
特定
列值。
浏览 1
提问于2014-05-21
得票数 0
2
回答
如何读取火花放电
中
的
特定
列?
、
、
我想从输入文件
中
读取
特定
的
列。我知道如何在熊猫身上这样做。但是是否有类似于火花放电操作
的
任何功能呢?
浏览 11
提问于2017-05-29
得票数 3
回答已采纳
1
回答
在
数据库
中
查找
最长
的
库仑长度-选择子查询
、
、
我
在
SQL方面的技能有限:上述陈述是有效
的
。它给出了
具有
LONGVAR数据类型
的
所有
表
和相应
的
列名
浏览 5
提问于2015-05-20
得票数 0
回答已采纳
1
回答
Databricks
-Connect还返回多个python文件作业找不到
的
模块
、
、
目前,我正在
通过
databricks
-connect与本地VS代码连接
数据库
。但是我
的
子任务都有模块未找到
的
错误,这意味着其他python文件
中
的
代码没有找到。我试过: 有人在这方面有经验吗?或者更好
的
方式
浏览 2
提问于2020-07-10
得票数 1
2
回答
如何在现有
数据库
之上创建
具有
只读访问权限
的
databricks
数据库
、
我将用这张图片来想象我
的
问题:
Databricks
1
在
Databricks
中
创建
数据库
(和
表
),并将其数据存储
在
存储帐户
中
。
在
Databricks
2
中
,我想读取数据:
Databricks
2只
具有
读取权限。我可以直接读取原始
的
增量文件,但是我想要创建一个
数据库
和
表
,它也可以
在<
浏览 2
提问于2020-04-10
得票数 2
回答已采纳
2
回答
从
PySpark
连接到Sharepoint
的
代码
、
、
、
、
我想使用
PySpark
提取SharePoint列表数据。我不确定Sharepoint列表数据和存储。我想以
PySpark
数据帧
的
形式读取SharePoint列表数据。
浏览 2
提问于2019-05-24
得票数 2
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
一文读懂PySpark数据框
一文读懂 PySpark 数据框
Spark 3.0重磅发布!开发近两年,流、Python、SQL重大更新全面解读
如何从Pandas迁移到Spark?这8个问答解决你所有疑问
在MSSQL中,若希望用户USER1具有数据库服务器上的全部权限,则应将USER1加入到下列哪个角色
热门
标签
更多标签
云服务器
ICP备案
腾讯会议
云直播
对象存储
活动推荐
运营活动
广告
关闭
领券