腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
圈层
工具
MCP广场
文章/答案/技术大牛
搜索
搜索
关闭
发布
文章
问答
(9999+)
视频
沙龙
1
回答
无法
远程
访问
hdfs
hadoop
、
hdfs
我让
hdfs
(namenode、secodnarynamenode和datanode)在一台机器上运行。当我在同一台机器上运行它们时,我能够执行像'put‘这样的
hdfs
操作,但是它不能
远程
工作,尽管像'ls’这样的其他操作可以很好地工作。我认为我的
远程
hdfs
客户端能够连接到namenode,但不能连接到datanode。Namenode web控制台显示有一个datanode在本地主机上运行,这可能是问题所在-它应该绑定到ip地址,以便我的htfs客户端可以
访问
浏览 29
提问于2016-09-11
得票数 0
1
回答
如何将文件从
HDFS
复制到
远程
HDFS
hadoop
、
hdfs
我希望将文件从Hadoop集群复制到
远程
集群。我知道
远程
名称节点的IP和端口。hadoop -cp
hdfs
://MyNamespace/path/file
hdfs
://RemoteNamespace/path/file 但是,如果不配置hadoop_conf_dir,则不知道
远程
名
浏览 1
提问于2018-04-20
得票数 0
回答已采纳
1
回答
在不安全的纱线集群中运行星火时
访问
安全蜂巢
hadoop
、
apache-spark
、
hadoop-yarn
在
访问
存储在安全群集中的蜂窝表时,是否可以使用不安全的纱线集群运行Spark?(火花版本为1.6)更新: 我想解释一下我问题背后的最终目标。我们的主安全集群被大量利用,我们的作业
无法
在合理的时间内获得足够的资源来完成。为了克服这一问题,我们希望使用来自另一个不安全集群的资源--我们有,而不需要在集群之间复制数据。请告诉我,如果你有任何其他的解决方案,因为似乎我们
无法
实现上述目标。
浏览 2
提问于2017-03-07
得票数 3
回答已采纳
2
回答
将文件从本地文件系统复制到Hadoop中的
HDFS
时出错
hadoop
、
local
、
hdfs
、
copying
我正在使用hadoop处理文件,目前我正在尝试使用以下命令将文件从本地文件系统复制到
HDFS
得到的错误如下k(FSNamesystem.java:1557)(DFSClient.java:35
浏览 3
提问于2012-12-03
得票数 1
1
回答
如何在
HDFS
上部署和运行Samza作业?
hadoop
、
hdfs
、
apache-samza
我想让Samza作业在
远程
系统上运行,Samza作业存储在
HDFS
上。在煤机上运行Samza作业的示例()涉及构建一个tar文件,然后解压缩tar文件,然后运行位于tar文件中的shell脚本。这里的
HDFS
示例完全没有详细说明()。它说要将tar文件复制到
HDFS
,然后遵循非
HDFS
示例中的其他步骤。这意味着,现在驻留在
HDFS
上的tar文件需要在
HDFS
中解压缩,然后在该解压缩的tar文件上运行一个shell脚本。但是您不能用hadoop fs shell解压缩<e
浏览 3
提问于2015-10-28
得票数 0
回答已采纳
1
回答
从
远程
linux服务器向Hadoop
HDFS
传输文件
unix
、
hadoop
、
hdfs
我需要将文件从
远程
Linux服务器直接传输到
HDFS
。我在
远程
服务器上放置了keytab,在kinit命令激活后,我
无法
浏览
HDFS
文件夹。我知道从边缘节点我可以直接将文件复制到
HDFS
,但是我需要跳过边缘节点,直接将文件传输到
HDFS
。 我们怎样才能做到这一点。
浏览 1
提问于2018-09-26
得票数 0
2
回答
在JAVA中可以运行HADOOP并将文件从本地fs复制到
HDFS
,但不需要在文件系统上安装Hadoop吗?
java
、
linux
、
maven
、
hadoop
我希望运行hadoop并将文件从local file system复制到
HDFS
,而无需在我的Linux文件系统上安装hadoop。Configuration configuration = new Configuration(); FileSystem fs = FileSystem.get(new URI("
hdfs
/part-m-00000"), new Path("
hdfs
://192.168.1.170:54310/user/h
浏览 8
提问于2015-04-24
得票数 1
回答已采纳
2
回答
如何将数据加载到来自
远程
HDFS
的spark中?
apache-spark
、
hadoop
、
hdfs
我们的数据存储在
远程
Hadoop集群中,但是为了执行某些PoC,我需要在我的机器上本地运行spark应用程序。如何从
远程
HDFS
加载数据?
浏览 12
提问于2022-04-22
得票数 -3
2
回答
使用SSH从Java应用程序连接到Hadoop
java
、
scala
、
hadoop
、
ssh
、
hdfs
我正在尝试连接到
远程
hadoop集群,仅通过
HDFS
无法
访问
该集群。我尝试做的是使用
HDFS
客户端从我的Scala/Java应用程序
访问
文件。现在我感觉就像在黑客帝国中-“我必须走得更深”,而不知道如何到达服务器。任何想法都将被感谢,谢谢!
浏览 0
提问于2013-03-15
得票数 1
回答已采纳
1
回答
AWS EMR:主节点是否将
hdfs
数据存储在EMR集群中?
amazon-web-services
、
amazon-emr
主节点-此节点是否将
hdfs
数据存储在aws emr集群中?任务节点-如果此节点不存储
hdfs
数据,它是否纯粹是计算节点?在这种情况下,hadoop会传输到任务节点吗?
浏览 8
提问于2022-03-28
得票数 0
回答已采纳
1
回答
具有多个名称节点的
远程
文件系统上的
hdfs
dfs -ls?
hadoop
、
hdfs
在
远程
系统中,我希望看到这个系统的文件和目录。如果nnA是主namenode,我可以执行HDFSDFS-Dfs.defaultFS=
hdfs
://nnA -ls /path/to/ nnB,如果nnB是主namenode,则nnB-DFS-Dfs.defaultfs=
hdfs
://nnB -ls /path/to/file 如果我使用的namenode恰好是当时的主命令,这两个命令都可以正常工作。从
远程
系统中,我<e
浏览 2
提问于2020-02-20
得票数 0
回答已采纳
3
回答
Spark是否支持从主节点或工作节点
访问
数据?
apache-spark
、
rdd
因为我正在
访问
一个
远程
集群,并且我的输入数据量很大,
无法
登录到
远程
集群。 我不是在找S3或
HDFS
。如果有其他选择,请提出建议。
浏览 3
提问于2015-10-02
得票数 1
1
回答
hadoop如果我使用-files命令行选项,如何在映射器中获取分发缓存文件
hadoop
、
mapreduce
我使用以下命令从
远程
计算机( windows )运行hadoop map red作业Path[] cacheFiles = DistributedCache.getLocalCacheFiles(conf); fileName =此外,我尝试手动将junk
浏览 2
提问于2013-10-25
得票数 1
1
回答
是否可以写入
远程
HDFS
?
hadoop
、
hdfs
作为标题,是否可以写入
远程
HDFS
? 例如,我已经在AWS EC2上安装了
HDFS
集群,并且我想将文件从我的本地计算机写入
HDFS
集群。
浏览 6
提问于2015-09-29
得票数 4
回答已采纳
1
回答
MAPR群集上的
HDFS
目录
hdfs
、
mapr
我需要将我的Spark流检查点文件保存在
HDFS
目录中。我可以
访问
安装了MAPR的
远程
集群。是opt/mapr/..吗?
浏览 10
提问于2016-08-19
得票数 0
1
回答
团簇(纱线)模式下火花放电的Kerberos问题
scala
、
apache-spark
、
hadoop-yarn
、
kerberos
我正在使用带有Kerberos身份验证的Spark。本地模式-我现在正在使用纱线以群集模式运行。spa
浏览 5
提问于2016-12-05
得票数 3
回答已采纳
1
回答
Hadoop/Hive :在
远程
计算机上从.csv加载数据
csv
、
hadoop
、
hive
、
hiveql
我有一个csv文件,可以从一个http网址。有什么办法我可以从那里装载它吗?LOAD DATA INPATH 'http://192.168.56.101:8081/TeamHalf.csv' OVERWRITE INTO TABLE csvdata;
浏览 0
提问于2014-06-26
得票数 2
回答已采纳
3
回答
sparklyr将数据写入
hdfs
或配置单元
sparklyr
我尝试使用sparklyr将数据写入
hdfs
或hive,但
无法
找到方法。是否有可能使用sparklyr将R数据帧写入
hdfs
或hive?请注意,我的R和hadoop运行在两个不同的服务器上,因此我需要一种从R写入
远程
hdfs
的方法。 向Rahul致敬
浏览 16
提问于2017-06-28
得票数 6
1
回答
将本地
HDFS
文件系统浏览器与IntelliJ IDEA集成
hadoop
、
intellij-idea
、
filesystems
、
remote-access
我使用我所在大学的
HDFS
集群研究了MapReduce范例,并通过色调
访问
它。从色调上看,我可以浏览文件,阅读/编辑它们等等。所以在这个集群中,我需要: 我非常喜欢编写MapReduce应用程序,因此我已经正确地将本地
HDFS
配置为个人游乐场,但目前我只能
访问
它,这确实是浪费时间的命令行(如)。通过SFTP
远程
主机连接,我可以“直接”
访问
我彻底的I
浏览 2
提问于2018-01-22
得票数 0
回答已采纳
2
回答
rxHadoopCopyFromLocal来自Windows
r
、
hadoop
、
azure-hdinsight
、
microsoft-r
从Windows复制到
远程
HDFS
的正确语法是什么?我试图使用RStudio将文件从本地计算机复制到
远程
hadoop集群这个扔了rxHadoopCopyFromLocal("C:\\path\\to\\file.csv", "/target
浏览 6
提问于2017-05-23
得票数 0
回答已采纳
点击加载更多
热门
标签
更多标签
云服务器
ICP备案
对象存储
云点播
即时通信 IM
活动推荐
运营活动
广告
关闭
领券