腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
Databricks
-
CSV
未
正确
加载
databricks
、
azure-databricks
我有一个简单的
csv
文件,它是以竖线分隔的,我可以将它
加载
到
Databricks
中,然后显示df,它显示得很好。然后,我尝试使用以相同方式格式化的主数据集,并从SQL server中导出。
加载
后,输出显示它已
加载
(列出字段名称和它推断的数据类型--虽然都是字符串,但这不是一个好兆头) df = spark.read.format("
csv
").options(header='true',quote='"', delim
浏览 20
提问于2019-01-15
得票数 0
2
回答
使用SparkR 1.5从RStudio中的hdfs读取大文件(纯文本、xml、json、
csv
)的选项
r
、
sparkr
、
apache-spark-1.5
我是Spark的新手,我想知道除了下面这些选项之外,是否还有其他选项可以使用SparkR从RStudio中读取存储在hdfs中的数据,或者我是否
正确
使用它们。数据可以是任何类型(纯文本、
csv
、json、xml或任何包含关系表的数据库)和任何大小(1kb -几gb)。SparkR) sc <- sparkR.init(master="local", sparkPackages="com.
databricks
:spark
浏览 6
提问于2015-09-15
得票数 5
1
回答
我们能否在没有spark.sql的情况下将数据从熊猫数据
加载
到
databricks
表
python-3.x
、
pandas
、
databricks
、
azure-databricks
我有一个要求,把数据从
csv
/熊猫数据写到
databricks
表。我的python代码可能不在
databricks
集群上运行。我可能在一个孤立的独立节点上运行。我使用
databricks
python连接器从
databricks
表中选择数据。选择是有效的。但我无法从
csv
或熊猫的数据
加载
到数据库。我是否可以使用
databricks
python连接器将
csv
/pandas数据中的大量数据
加载
到<e
浏览 5
提问于2022-08-19
得票数 0
4
回答
通过com.
databricks
.spark.
csv
加载
RStudio
rstudio
、
sparkr
/bin/sparkR --master local[7] --packages com.
databricks
:spark-
csv
_2.10:1.0.3flights<- read.df(sqlContext, "data/nycflights13.
csv
", "com.
databricks
.spark.
csv
", header="true") 不幸的是,
浏览 0
提问于2015-06-16
得票数 4
回答已采纳
1
回答
如何用星火从
csv
文件中写入avro文件?
java
、
csv
、
apache-spark
、
avro
、
spark-avro
= read.
csv
(path); DataFrameWriter<Row> format = write.format("com.
databricks
.spark.avro"); format.save("C:\\git\\sparkCsvToAvro\\src\\main\\resources\\avro")<version>${spark-core.ve
浏览 7
提问于2017-05-09
得票数 0
回答已采纳
3
回答
如何将数据从dataframe导出到文件数据库
apache-spark
、
pyspark
、
databricks
是否有可能从我的计算机上的
Databricks
保存数据格式。 我找到了这个解决方案
浏览 9
提问于2016-07-27
得票数 13
1
回答
Json火花红移
json
、
scala
、
apache-spark
、
amazon-redshift
我有一个有多个嵌套的jsons的文件,我希望topush进行红移,我想首先可以将整个行保存为一个列字符串,然后保存。因此,我的问题是,如何在具有嵌套json的文件中读取,将每一行保存在一个列"message“的表中。假设我有一个样本json "OrderId": "foo",
浏览 3
提问于2016-07-11
得票数 1
回答已采纳
1
回答
星星之火-xml在读取处理指令时崩溃。
xml
、
apache-spark
、
pyspark
、
databricks
、
apache-spark-xml
我正在尝试将XML文件导入数据文件,然后可以将其操作为平面文件,以便写入
CSV
。数据集足够大,我们需要某种处理程序,比如Spark。我已经翻阅了spark文档,没有发现任何关于处理指令的内容。").option("rowTag", "row").load("example.xml")spark-submit --packagescom.
databricks
:spark-
浏览 0
提问于2019-08-20
得票数 0
回答已采纳
1
回答
加载
Dataframe时从文件中移除
CSV
列
csv
、
apache-spark
、
pyspark
、
databricks
当通过
databricks
加载
csv
时,第2行第4列下面没有
加载
。
csv
的no列随行而变化。在test_01.
csv
中,s,d,a,d通过
databricks
加载
上述
csv
文件,如下所示| s| d| a|
浏览 0
提问于2019-01-31
得票数 0
2
回答
Spark SQL -如何将DataFrame写入文本文件?
java
、
apache-spark-sql
我正在使用Spark SQL读拼图和写拼图文件。是否支持任何默认方法,或者我必须将该DataFrame转换为RDD,然后使用saveAsTextFile()方法?
浏览 1
提问于2016-03-15
得票数 11
回答已采纳
1
回答
“格式()”在火花放电中
加载
数据时做什么
apache-spark
、
pyspark
我开始使用spark,通常在从云中
加载
数据时,我会看到以下代码我的问题如下:这里我们似乎有两个数据集:一个是com.
databricks
.spark.
csv
浏览 0
提问于2017-03-06
得票数 0
6
回答
如何在Apache预构建版本中添加任何新的库(如Spark
csv
)
python
、
apache-spark
、
apache-spark-sql
我已经构建了,并能够使用下面的命令使用同样的pyspark错误获取Traceback (most recent call last): File "<stdin>",in g
浏览 13
提问于2015-06-10
得票数 26
回答已采纳
1
回答
Pyspark sqlContext.read.format和registerDataFrameAsTable
pyspark
、
pyspark-sql
我刚开始使用spark sql,想知道如何在
加载
数据帧后使用"registerDataFrameAsTable“将其转换为表?我有所有的标题和格式
正确
,但我似乎不能转换成一个table.Is,有其他方式,你应该使用??df = (sqlContext.read.format("com.
databricks
.spark.
csv
")
浏览 0
提问于2018-02-22
得票数 0
1
回答
带有多字符分隔符的Apache火花数据文件
python
、
python-3.x
、
apache-spark
、
databricks
我有一个使用多字符分隔符的"
CSV
“文件,因此数据看起来类似于在
Databricks
内部的笔记本中,下面的代码会在第二行抛出错误(如下所示),其中它试图将dataframe df写入目标表: df = spark.read.
csv
(".../Test/MyFile.
csv
", sep="^|^,^|^", header="true", inf
浏览 1
提问于2022-05-12
得票数 0
1
回答
试图
加载
jar和外部类
mysql
、
jdbc
、
apache-spark
、
apache-zeppelin
在我的zeppelin-env.sh中,我以jar方式
加载
一个JDBC MySQL连接器,如下所示此外,我还想
加载
Databricks
CSV
包,它应该以2种(或更多)方式工作: %dep z.l
浏览 3
提问于2015-11-11
得票数 0
回答已采纳
1
回答
Spark Dataframe:行对象分隔符
scala
、
apache-spark
、
spark-dataframe
提前谢谢。例如,假设我有3列 |-- field1: string (nullable = true) |-- field3
浏览 3
提问于2016-04-08
得票数 0
1
回答
SparkR和软件包
r
、
apache-spark
、
sparkr
下面是我试图在hdfs中访问我的test.
csv
的例子library(SparkR)但是得到的错误如下: Caused by: java.lang.RuntimeException: Failedto load class for
浏览 1
提问于2015-06-20
得票数 2
回答已采纳
3
回答
Spark:将
CSV
转换为RDD[Row]
scala
、
apache-spark
、
apache-spark-sql
、
rdd
我有一个.
csv
文件,它包含258列,结构如下。. , "index_257"]val data_
csv
= sc.textFile("~/test.
csv
") val rowRDD = data_
csv
.map(_.split(",")).map(p => Row( _ => p(_).
浏览 20
提问于2017-07-24
得票数 0
回答已采纳
1
回答
在SparkR中查找文件
apache-spark
、
sparkr
我正在运行一个SparkR应用程序。我有一个初始化SparkR的R脚本。我需要在其他文件中使用一个函数,就像我们在正常的R文件名中所做的那样,我调用了源文件(“language.When”),它显示找不到文件。如何调用文件?
浏览 0
提问于2016-11-04
得票数 0
1
回答
在pyspark代码中
加载
外部库
python
、
csv
、
apache-spark
、
pyspark
我想阅读带有
databricks
外部库spark.
csv
的
csv
。sc=SparkContext()df = sq.read.format('com.
databricks
.spark.
csv
').options(header=: Failed to load class for data source: com.
databricks
.spark.
csv
.我的问题是:如何在python代码中
加载</em
浏览 3
提问于2016-02-11
得票数 2
回答已采纳
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
对象存储
云点播
即时通信 IM
活动推荐
运营活动
广告
关闭
领券