腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
从
scala
脚本
内部
执行
hdfs
命令
、
、
我正在尝试
从
Spark在集群模式下
执行
的
scala
脚本
内部
执行
一个特定于
HDFS
的
命令
。在
命令
下面: val cmd = Seq("
hdfs
","dfs","-copyToLocal","/tmp/file.dat","/path/to/local") val resu
浏览 60
提问于2019-06-03
得票数 1
1
回答
如何在
scala
中以编程方式运行shell
命令
、
我有一些在
scala
脚本
中动态生成的shell
命令
,如何在
scala
脚本
中运行它们?._ "
hdfs
dfs -rm " + filename
从
字面上看,我想运行shell
命令
:
hdfs
dfs -rm "This File“ 非常感谢。
浏览 17
提问于2019-02-12
得票数 0
回答已采纳
1
回答
从
scala
代码
执行
的Shell
命令
无法识别bash别名
、
、
我有一个
scala
文件,它
执行
一个类似下面的
hdfs
命令
:当我在shell中运行该
命令
时,它运行得很好,因为我在.bashrc文件中设置了以下别名:...however当我使用SBT构建在
Scala
代码中运行
浏览 0
提问于2015-08-18
得票数 1
3
回答
如何
从
Spark查看底层Hadoop文件系统
、
、
我想做这样的事情:我该怎么做呢?
浏览 5
提问于2016-11-10
得票数 0
1
回答
如何
从
API拉取数据并将其存储在
HDFS
中
、
有哪些数据接收工具可用于
从
HDFS
中的API导入数据? 我使用的也不是HBase,而是
HDFS
和Hive。
浏览 14
提问于2016-09-15
得票数 0
回答已采纳
1
回答
用Python访问Hadoop
、
我想从我的python
脚本
中
执行
几个Hadoop
命令
,这样就可以
执行
所有的
hdfs
命令
了。我想做的工作是: 读取存储在
hdfs
中的各种文件,如文本、avro、csv和拼花文件。我希望所有这些任务都是
从
python
脚本
执行
的,而不是通过从终端输入相应的
命令
来<e
浏览 11
提问于2022-01-06
得票数 -1
1
回答
如何通过jupyter笔记本访问头节点
hdfs
文件
、
、
、
、
()现在,在运行以下
命令
时,我希望通过jupyter notebook.But访问头节点中的
hdfs
文件,该
命令
从
hdfs
获取数据。df = sqlContext.read.json('
hdfs
:///192.168.21.110/user/
hdfs
/ML/pass/Teleram_18/notefind/
浏览 1
提问于2019-01-21
得票数 0
1
回答
从
脚本
启用REPL高级用户模式(: power )
、
、
我试图在
Scala
中将字符串动态解释为
命令
。为此,据我所知,我需要在power模式下调用intp.interpret("string") (其中intp代表当前解释器,string代表我的
命令
),对吗?然而,我的问题是,我想从
脚本
内部
执行
此操作。因此,我正在寻找一种方法,可以
从
脚本
内部
切换到高级用户模式,然后调用intp.interpret。 有没有办法在
脚本
文件中实现这种切换?
浏览 1
提问于2012-09-23
得票数 7
1
回答
用于火花作业的Oozie外壳动作抛出NullPointerException
、
、
我有一个shell
脚本
,其中包含使用oozie操作运行的星火提交
命令
。我们非常感谢你的帮助。$ofRef$.length$extension(ArrayOps.
scala
:114) at
scala
.collection.mutable.ArrayOps$ofRef.length(ArrayOps.
scala
</configuration>
浏览 5
提问于2018-12-04
得票数 2
回答已采纳
2
回答
在
hdfs
上火花写入地板
、
、
、
、
我想把数据
从
rdbms带到数据帧,并将这些数据写入
HDFS
上的数据块中。"dfs.replication“值为1。当我使用下面的
命令
尝试这一点时,我已经看到所有
HDFS
块都位于我
执行
星火外壳的节点上。
scala
> xfact.write.parquet("
hdfs
://sparknode01.localdomain:9000/xfact")谢谢
浏览 2
提问于2016-11-04
得票数 4
回答已采纳
1
回答
在集群中的
执行
器上运行python
脚本
[
Scala
/Spark]
、
、
、
、
我有python
脚本
: print("hello " + line)def run(spark我可以在python
脚本
中访问星火会话吗?或者我可以在python
脚本
中创建一个文件并将其保存到
hdfs
文件系统中?实际上,这正是我想要做的--我想在python
脚本
中创建csv文件,并将它们保存到
hdfs
中。 还有一个小问题。是否可以向工作人员发送安装python包
浏览 1
提问于2022-02-22
得票数 1
1
回答
获取子目录列表
、
、
、
、
同样适用于“
hdfs
://hadoop_foo/”。 hadoop dfs -lsr /hadoop_foo/ 用代码..。
浏览 0
提问于2016-09-09
得票数 0
回答已采纳
7
回答
从
Hadoop中删除文件/文件夹
、
、
、
我得到以下错误 at org.apache.hadoop.util.RunJar.main(RunJar.java:187) 如何
从
Hadoop
浏览 417
提问于2013-05-29
得票数 17
回答已采纳
2
回答
从
scala
脚本
执行
unix
命令
、
我不清楚
从
基于
scala
的
脚本
执行
unix
命令
的最佳实践。#!/bin/sh!我检查了许多帖子,但是没有什么能清楚地勾勒出一个工作
脚本
,它可以
从
scala
脚本
执行
unix
命令
并<e
浏览 1
提问于2016-09-13
得票数 0
回答已采纳
1
回答
如何删除多个
hdfs
目录,
从
Apache中的一些单词开始
、
、
、
、
我使用dstream.saveAsObjectFiles("/temObj")方法将对象文件持久化在星火流中,它在
hdfs
中显示多个文件。我试过了
hdfs
.delete(new org.apache.hadoop.fs.Path(Path), true
浏览 5
提问于2017-09-26
得票数 1
回答已采纳
1
回答
警告util.NativeCodeLoader:无法为您的平台加载本机hadoop库.在应用hadoop-2.6.0的情况下使用内置java类
当我试图将本地文件系统移到
HDFS
时,我面临着这个问题。类似于copyFromLocal
命令
: hadoop、-copyFromLocal ~/Hadoop/test/text2.txt ~/Hadoop/test_hds/input.txt建议使用此
脚本
执行
相反,可以使用
hdfs
命令
。: hadoop -put ~/test/test/test1.txt hd.txt弃用:建议使用此
脚本<
浏览 0
提问于2015-06-04
得票数 1
回答已采纳
1
回答
HDFS
:使用Java /
Scala
移动多个文件
、
、
、
我需要使用Java /
Scala
程序在
HDFS
中移动多个文件,这些文件对应于给定的正则表达式。例如,我必须将名为*.xml的所有文件
从
文件夹a移动到文件夹b。使用shell
命令
,我可以使用以下
命令
:我可以使用Java使用以下代码(
scala
语言)移动单个文件,并在rename类上使用FileSystem方法: // Prepare initial co
浏览 1
提问于2015-12-04
得票数 0
回答已采纳
1
回答
将文件副本分发给
执行
者
、
、
、
、
我有一堆数据(在S3上),我正在复制到本地
HDFS
(在amazon上)。现在我正在使用org.apache.hadoop.fs.FileUtil.copy来完成这个任务,但是还不清楚这是否会将文件副本分发给
执行
者。当然,在星火历史服务器中什么也没有出现。Hadoop DistCp似乎是这样的(请注意,我在S3上,所以它实际上应该是构建在dist-cp之上的s3-dist-cp ),只是它是一个
命令
行工具。我正在寻找一种
从
Scala
脚本
(又名Java)调用这个
脚本
的方法
浏览 4
提问于2018-12-06
得票数 0
1
回答
drop
命令
不删除由spark sql创建的hive表的路径。
、
、
、
、
我正在尝试删除一个表(
内部
)表,这个表是Spark创建的,有些表是如何被删除的,但是表的位置仍然存在。有人能让我知道怎么做吗?) ROW FORMAT DELIMITED FIELDS TERMINATED BY "^" LOCATION "
hdfs
浏览 1
提问于2018-07-20
得票数 2
回答已采纳
1
回答
Hdfs
查找小于特定大小的文件
、
、
有没有办法在
Hdfs
中列出小于特定大小的文件。使用
命令
行,甚至是spark
脚本
?
Scala
/ spark会更好,因为与
命令
行相比,它可能运行得更快。
浏览 20
提问于2019-10-29
得票数 1
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
热门
标签
更多标签
云服务器
ICP备案
对象存储
云直播
腾讯会议
活动推荐
运营活动
广告
关闭
领券