温馨提示×

温馨提示×

您好,登录后才能下订单哦!

密码登录×
登录注册×
其他方式登录
点击 登录注册 即表示同意《亿速云用户服务条款》

HadoopStudio中怎么实现MapReduce应用

发布时间:2021-08-31 17:40:50 来源:亿速云 阅读:118 作者:chen 栏目:开发技术

这篇文章主要讲解了“HadoopStudio中怎么实现MapReduce应用”,文中的讲解内容简单清晰,易于学习与理解,下面请大家跟着小编的思路慢慢深入,一起来研究和学习“HadoopStudio中怎么实现MapReduce应用”吧!

HadoopStudio开发部署MapReduce应用

HadoopStudio是基于Hadoop框架的MapReduce应用集成开发和部署环境。HadoopStudio以NetBeans模块插件的方式使用,可在NetBeans插件中心获取。开发者可以通过HadoopStudio的可视化界面,部署分布在不同节点的计算任务,并监控MapReduce处理过程中各阶段的输入、输出以及交互过程。

针对MapReduce任务执行过程的各要素,HadoopStudio提供了HDFS、JobTracker以及Cluster节点的配置工具。使用HadoopStudio配置之前,需要预先在目标机器上部署Hadoop作业执行环境,在UbuntuLinux上的Hadoop配置过程,已有详尽教程(单节点,多节点)可供参考。

在HadoopStudio中对作业节点配置,首先需要定义负责数据存储的Filesystems节点,可选节点包含本地磁盘访问、HDFS文件系统和AmazonS3连接三种方式。HDFS节点的配置,需要指定NameNode节点的地址、访问端口和登录用户名,其中登录用户名为可选项。对于目前***的r0.20版本,Filesystems节点的端口配置由conf/hadoop-site.xml改为在conf/core-site.xml中设定。

在HadoopCluster配置部分,添加远程计算节点对应的JobTracker,指定节点的地址,并在下拉列表中选择之前添加的Filesystems节点,添加的节点则会出现在Hadoop可用节点的列表中。在主节点计算任务启动之后,包含DataNode、TaskTracker、JobTracker、NameNode、SecondaryNameNode进程。对于数据处理,集群中结点由一个NameNode和若干DataNode组成,SecondaryNameNode为NameNode的备份。计算任务中,节点由一个JobTracker和若干TaskTracker组成,JobTracker负责任务调度,TaskTracker执行并行计算任务。TaskTracker须运行在DataNode上以获取用于计算的数据。

对于已编写的计算任务,HadoopStudio提供了简化的作业部署流程。首先在HadoopJobs中添加生成好的jar包(如Hadoop自带的Hadoop-*-examples.jar示例),之后选择要执行的主类并添加依赖项,并选择执行任务的目标Cluster节点和目标Filesystems后即可启动计算任务。同时,HadoopStudio提供了实时显示的MapReduce任务工作流视图,可显示任务执行过程中的作业类型、完成情况、执行状态、起止时间、报错信息以及输出结果等内容。

Hadoop应用开发方面,HadoopStudio将Hadoop类库进行打包,可直接在项目中添加所有依赖项。编码过程中,HadoopStudio为每种作业的提供了模板,并能够在代码编辑的同时自动对模板视图进行更新。

目前HadoopStudio支持Hadoop0.18.x版本的ClientAPI和Hadoop0.20.x的Client与Server的API,并且支持不同版本Hadoop的混合使用。但HadoopStudio目前的文档比较简单,感兴趣的朋友可以在freshmeat.net的项目站点跟踪HadoopStudio的***信息。

感谢各位的阅读,以上就是“HadoopStudio中怎么实现MapReduce应用”的内容了,经过本文的学习后,相信大家对HadoopStudio中怎么实现MapReduce应用这一问题有了更深刻的体会,具体使用情况还需要大家实践验证。这里是亿速云,小编将为大家推送更多相关知识点的文章,欢迎关注!

向AI问一下细节

免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。

AI