我正在尝试在Hadoop流作业中包含一个python包(NLTK),但是我不确定如何在不通过CLI参数"-file“手动包含每个文件的情况下做到这一点。
编辑:一种解决方案是在所有的slaves上安装这个包,但我目前没有这个选项。
发布于 2011-07-25 12:26:11
我会将包压缩到.tar.gz
或.zip
中,并在-file
选项中将整个tarball或归档文件传递给hadoop命令。我以前用Perl做过这件事,但没有用Python。
也就是说,如果您在http://docs.python.org/library/zipimport.html上使用Python的zipimport
,我认为这仍然适用于您,它允许您直接从压缩包导入模块。
发布于 2011-07-25 12:26:26
刚刚发现了一个非常棒的解决方案:http://blog.cloudera.com/blog/2008/11/sending-files-to-remote-task-nodes-with-hadoop-mapreduce/
首先使用所需的库创建zip
zip -r nltkandyaml.zip nltk yaml
mv ntlkandyaml.zip /path/to/where/your/mapper/will/be/nltkandyaml.mod
接下来,通过Hadoop stream包含"-file“参数:
hadoop -file nltkandyaml.zip
最后,通过python加载库:
import zipimport
importer = zipimport.zipimporter('nltkandyaml.mod')
yaml = importer.load_module('yaml')
nltk = importer.load_module('nltk')
此外,此页面还总结了如何包含语料库:http://www.xcombinator.com/2009/11/18/how-to-use-cascading-with-hadoop-streaming/
下载并解压缩wordnet语料库
cd wordnet
zip -r ../wordnet-flat.zip *
在python中:
wn = WordNetCorpusReader(nltk.data.find('lib/wordnet-flat.zip'))
发布于 2014-10-23 12:41:29
您可以像这样使用zip lib:
import sys
sys.path.insert(0, 'nltkandyaml.mod')
import ntlk
import yaml
https://stackoverflow.com/questions/6811549
复制相似问题