腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
2
回答
如何
允许
root
用户
将
文件
写入
HDFS
linux
、
hadoop
用python编写的守护程序服务试图在
HDFS
中创建一个目录,但得到以下权限错误。mkdir: Permission denied: user=
root
, access=WRITE, inode="/rep_data/store/data/":hadoop:supergroup:drwxr-xr-x看起来我的服务是在
root
帐户下运行的。所以我想知道
如何
给
root
用户
创建目录和写
文件
的权限。
浏览 17
提问于2016-08-24
得票数 0
1
回答
使用不位于
hdfs
中的
文件
hadoop
、
hive
、
bigdata
但是,尽管有根权限,我还是不能将数据从
文件
系统复制到
hdfs
:put: Permission denied: user=
root
, access=WRITE, inode="/user":
hdfs
:supergroup:drwxr-xr-x 我尝试了不同的方法来从flume_test/logs
文件
创建表,这在
hdfs</
浏览 0
提问于2015-08-02
得票数 0
回答已采纳
1
回答
试图
将
数据存储到
hdfs
文件
中时出错
apache-spark
、
pyspark
、
apache-spark-sql
、
spark-streaming
我在用Ubuntuprocessed.write.format("json").save("
hdfs
://localhost:54310/mydataorg.apache.hadoop.ipc.RemoteException(org.apache.hadoop.security.AccessControlException):权限被拒绝: user=
root
浏览 5
提问于2020-05-03
得票数 2
回答已采纳
7
回答
HDFS
错误put:` `input':没有这样的
文件
或目录
hadoop
、
mapreduce
、
hdfs
、
hadoop2
我正在尝试伪分布式设置,并且遵循上的说明,我被困在第五步,即当我运行命令时我得到了下面的错误。
浏览 5
提问于2015-02-02
得票数 9
2
回答
使用Hadoop -copyFromLocal命令时,没有此类
文件
或目录错误
hadoop
、
hdfs
、
hortonworks-data-platform
我有一个本地VM,它安装了Hortonworks、Hadoop和
hdfs
。我从我的机器
将
ssh'ed复制到VM中,现在我试图通过以下命令
将
文件
从本地
文件
系统复制到
hdfs
中:[
root
@sandbox ~]# sudo -u
hdfs
hadoop fs -copyFro
浏览 2
提问于2016-01-16
得票数 4
1
回答
多个
用户
如何
写入
HDFS
中的同一目录
hadoop
、
hdfs
多个
用户
可以
将
文件
写入
HDFS
中的同一目录,而不会干扰
写入
操作吗?
浏览 0
提问于2020-01-27
得票数 1
1
回答
Apache Flume无法
将
文件
从源复制到目标
hadoop
、
flume
、
hortonworks-data-platform
、
flume-ng
、
bigdata
我以根
用户
身份执行Flume agent,希望
将
保存在位置/
root
/data-pipeline/input的XML
文件
复制到
hdfs
中
hdfs
:///user/
root
/data_pipeline_demo当我以flume-ng agent -c /etc/flume/conf -f /etc/flume/conf/fl
浏览 0
提问于2016-02-15
得票数 0
1
回答
火花应用程序+
HDFS
+
用户
气流不是inode=alapati的所有者
apache-spark
、
hadoop
、
hdfs
、
airflow
、
hdp
org.apache.hadoop.security.AccessControlException: Permission denied. user=airflow is not the owner of inode=alapati 在日志中没有清楚地提供我们需要在
HDFS
浏览 0
提问于2019-12-02
得票数 0
回答已采纳
1
回答
星星之火-获取部件
文件
后缀
apache-spark
、
hadoop
、
mapreduce
、
hdfs
当Spark使用Hadoop编写器编写部件
文件
(使用saveAsTextFile())时,这是一般格式"part-NNNNN“,它将
文件
保存在其中。
如何
在运行时检索星火中的这个后缀"NNNNN“?我不想列出
文件
,然后检索后缀。
浏览 1
提问于2018-04-30
得票数 0
4
回答
hadoop -put命令
shell
、
hadoop
、
hdfs
、
put
当我想要将本地
文件
复制到
HDFS
时,我使用了以下命令:但是,结果让我很沮丧:我相信这个
文件
确实存在。
浏览 1
提问于2013-08-28
得票数 26
回答已采纳
2
回答
我刚开始学习hadoop并学习基础知识。我最近安装了沙箱,但是我无法运行Hadoop命令。
hadoop
、
hdfs
[
root
@sandbox-hdp ~]#
hdfs
dfs -ls[
root
@sandbox-hdp ~]#
hdfs
dfs -mkdir mayank[
root
@sandbox-hdp ~]#
浏览 2
提问于2018-04-25
得票数 0
回答已采纳
2
回答
Hadoop :
如何
允许
常规
用户
在仓库目录中连续地
写入
数据和创建表?
hadoop
、
permissions
、
hive
、
data-warehouse
我正在尝试运行Java程序,该程序通过常规
用户
将
数据从Eclipse中
写入
到现有的Hive表中。:
hdfs
:drwxr-xr-xdrwxr-xr-x -
hdfs
hdfs
0 2014-03-/apps/hive/warehouse/test 这在某种程度上是有帮助的,MRD程序现在可以作为
浏览 2
提问于2014-03-11
得票数 4
1
回答
从servlet调用映射作业时出错
java
、
hadoop
、
servlets
、
mapreduce
ServletException, IOException { }方法1中的错误 HTTP 500 - Mkdirs未能创建
文件
:/var/lib/tomcat7 7/这里的
浏览 1
提问于2015-11-19
得票数 0
6
回答
为什么hadoop fs -mkdir失败,权限被拒绝?
hadoop
、
hdfs
、
cloudera
不幸的是,我在
将
数据复制到
HDFS
时遇到了问题,我得到了以下信息:mkdir: Permission denied: user=cloudera, access=WRITE, inode="/user":
hdfs
:supergroup:drwxr-xr-x 我不太关心这个虚拟机的安全性,有没有办法在
HDFS
上开放更多的安全性
浏览 0
提问于2014-03-27
得票数 16
1
回答
以指定的Linux
用户
身份运行Spark executors
apache-spark
、
nfs
这些挂载中的
文件
具有特定的linux
文件
权限。当我以
用户
x(在所有节点上都可用,并且在所有节点上具有相同的uid)的身份spark提交作业时,我希望spark executors也以
用户
x的身份运行,以便作业只能访问
用户
x有权访问的
文件
。我没有Kerberos,也没有
HDFS
。 在这个设置中这是可能的吗?使用纱线会有帮助吗?
浏览 0
提问于2020-02-22
得票数 1
6
回答
Sqoop导入-密码-
文件
函数在sqoop 1.4.4中不能正常工作
mysql
、
hadoop
、
sqoop
--connect jdbc:mysql://IP:3306/database_name --table clients --target-dir /data/clients --username
root
--password-file /sqoop.password -m 1Access denied for user '<e
浏览 1
提问于2015-04-17
得票数 16
回答已采纳
1
回答
如何
将
hdfs
权限回馈给超级组?
hdfs
、
root
、
ambari
、
connection-refused
、
hdp
以便访问
hdfs
。我不知道在根
用户
中给出了以下命令。(我曾尝试解析以下error ) sudo su -
hdfs
hdfs
dfs -chown
root
:
hdfs
/user/
root
exit现在,当我尝试访问
hdfs
时,它显示: Call From headnode.name.com/192.168.21.
浏览 11
提问于2019-01-23
得票数 0
1
回答
需要帮助来修复org.apache.hadoop.ipc.RemoteException - AWS EMR Spark Scala应用程序
scala
、
apache-spark
、
hdfs
、
amazon-emr
、
datanode
我进行了多次转换,我
写入
HDFS
,然后从
hdfs
回读,以完成转换,最后
写入
S3。(FSDirWriteFileOp.java:265)at org.apache.hadoop.
hdfs
.protocol.proto.ClientNamenodeProtocolProtos$ClientNamenodeProtocol$2.:183
浏览 15
提问于2018-08-11
得票数 0
5
回答
无法读取现有
文件
-没有这样的
文件
或目录
hadoop
每次我使用-put命令
将
本地
文件
复制到
hdfs
它给出了以下错误 我确信
文件
是存在的。
浏览 1
提问于2015-04-08
得票数 3
1
回答
如何
在
写入
/
写入
后为DataFrame指定生成
文件
的数量
scala
、
apache-spark
、
dataframe
、
hdfs
我看到了一些关于
将
单个
文件
写入
hdfs
的Q/a,似乎使用coalesce(1)就足够了。例如;但是,
如何
指定保存操作后
将
写入
的
文件
的“确切”数量?所以我的问题是; 如果我有由100个分区组成的dataframe,当我执行写操作时,它会写100个
文件
吗?如果我在调用re
浏览 0
提问于2018-06-29
得票数 0
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
Gmail 将允许用户直接编辑 Office 文件
Bash 脚本中如何使用 here 文档将数据写入文件
如何在Kerberos环境使用Flume采集Kafka数据并写入HDFS
好程序员大数据学习路线分享分布式文件系统HDFS
HDFS常用文件操作命令
热门
标签
更多标签
活动推荐
运营活动
广告
关闭
领券