`
wbj0110
  • 浏览: 1553576 次
  • 性别: Icon_minigender_1
  • 来自: 上海
文章分类
社区版块
存档分类
最新评论

搭建Eclipse下运行Mapreduce代码的环境

阅读更多

准备:基本的Hadoop环境搭建好,并启动hadoop。

Hadoop集群环境: 10.20.153.125  h5  master

10.20.153.126  h6  slave

10.20.153.127  h7  slave

版本:hadoop-1.0.0;

eclipse-SDK-3.7.2-linux-gtk

系统:VMWare下的Ubuntu

第一步:由于hadoop-1.0.0源码中没有自带eclipse的插件,编译生成org.apache.hadoop.eclipse_1.0.0.jar。把这个插件拷到 eclipse安装目录/plugins/ 下。

第二步:重启eclipse,配置hadoop installation directory。

若插件安装成功的话,打开Window-->Preferens,会发现Hadoop Map/Reduce选项,在这个选项里需要配置Hadoop installation directory。配置完成后退出。



 

这里需要注意的是:根据你即将要跑的代码是在当前这个hadoop版本的目录下。

第三步:配置Map/Reduce Locations。

在Window-->Show View中打开Map/Reduce Locations。Eclipse窗口下会有如下显示。



 

在这个View中,右键-->New Hadoop Location。弹出如下对话框:



 

需要配置Location name,还有Map/Reduce Master和DFS Master。这里面的Host、Port分别为你在mapred-site.xml、core-site.xml中配置的地址及端口。

配置完了,会在eclipse窗口看到



 

 

这里我是建了两个DFS Locations,hadoop连接的192.168.71.128就是没有配置好,下面的hadoop-1.0.0就是配置好了。

第四步:新建项目。

File-->New-->Other-->Map/Reduce Project。

随便可以取个工程名。现在以Hadoop自带的WordCount.java为例来说明如何运行这个mapreduce任务。

把hadoop安装目录下的/src/example/org/apache/hadoop/example/WordCount.java复制到刚才新建的项目下面。

第五步:创建输入文件。

1.在终端连上机器10.20.153.125,在这台机器上新建input文件夹:

接着创建两个file文件:

2.将本机上的输入文件上传到hdfs上:



 

 

第六步:运行代码。

1.      在新建的项目WordCount,点击WordCount.java,右键-->Run As-->Run Configurations

2.在弹出的Run Configurations对话框中,点Java Application,右键-->New,这时会新建一个application名为WordCount

3.配置运行参数,点Arguments,在Program arguments中输入“你要传给程序的输入文件夹和你要求程序将计算结果保存的文件夹”,

 



 

 



 

4.设置完了就点下这个Run,运行程序,过段时间将运行完成,等运行结束后,可以在终端中用命令:hadoop fs –ls /user/hadoop/output1

结果如下:

 



 

  • 大小: 96.7 KB
  • 大小: 361.3 KB
  • 大小: 41.2 KB
  • 大小: 28.3 KB
  • 大小: 31.4 KB
  • 大小: 64.1 KB
  • 大小: 99.7 KB
  • 大小: 18.9 KB
分享到:
评论

相关推荐

Global site tag (gtag.js) - Google Analytics