这篇文章给大家分享的是有关nutch+hadoop如何配置的内容。小编觉得挺实用的,因此分享给大家做个参考,一起跟随小编过来看看吧。
nutch+hadoop配置使用
配置nutch+hadoop
1,下载nutch。如果不需要特别开发hadoop,则不需要下载hadoop。因为nutch里面带了hadoopcore包以及相关配置
2,建立目录(根据自己喜好)
/nutch
/search(nutchinstallationgoeshere)nutch安装到这里,也就是解压到这里
/filesystemhadoop的文件系统存放点
/local/crawl后放置索引用来search用的
/home(nutchuser'shomedirectory)如果你用系统用户,这个基本没用
/tomcat启动nutch.war用来search索引的app
3,conf/hadoop-env.sh一定要配置JAVA_HOME,否则系统起不来
4,配置master和slave的ssh,否则每次都要输入passwd
ssh-keygen-trsa
然后回车即可
cpid_rsa.pubauthorized_keys
(copy到其它的slave上)scp/nutch/home/.ssh/authorized_keysnutch@devcluster02:/nutch/home/.ssh/authorized_keys
5,将bin和conf下所有的.sh、nuch、hadoop文件dos2unix
dos2unix/nutch/search/bin/*.sh/nutch/search/bin/hadoop
配置hadoop-size.xml
6,记住要把master文件从nutch/hadoopcopy到这个nutch中,应该是bug。也就是说启动需要这个文件,文件内容为默认的localhost即可(如果是分布式,可能需要配置)
7,nutch+hadoop配置过程中需要格式化namenode
bin/hadoopnamenode-format
8,启动:bin/start-all.sh
9,配置crawl(以配置一个网址lucene.apache.org为例)
cd/nutch/search mkdirurls viurls/urllist.txthttp://lucene.apache.org cd/nutch/search bin/hadoopdfs-puturlsurls cd/nutch/search viconf/crawl-urlfilter.txt changethelinethatreads:+^http://([a-z0-9]*\.)*MY.DOMAIN.NAME/ toread:+^http://([a-z0-9]*\.)*apache.org/
10,启动crawl
bin/nutchcrawlurls-dircrawled-depth4
11,查询
bin/hadoopdfs-copyToLocalcrawled/media/do/nutch/local/(crawled)将index的东西copy到以上配置的local中,因为search不能用dfs中搜索(从文档看是这样)
12,启动nutch.war,测试
vinutch-site.xmlnutch.war中classes下
starttomcat
注意点:
1,masters文件nutch原来没有,需要copy到conf下
2,crawl的log4j配置默认有问题,需要增加:
hadoop.log.dir=.
hadoop.log.file=hadoop.log
3,nutch2.0一定要配置nutch-site.xml。重新配置http.agent。default.xml里面已经存在。
nutch+hadoop配置使用时的问题:
1,运行hadoop程序时,中途我把它终止了,然后再向hdfs加文件或删除文件时,出现Namenodeisinsafemode错误:
rmr:org.apache.hadoop.dfs.SafeModeException:Cannotdelete/user/hadoop/input.Namenodeisinsafemode
解决的命令:
bin/hadoopdfsadmin-safemodeleave#关闭safemode
索引命令:
bin/nutchindexplainindex/paodingindexesplainindex/crawldbplainindex/linkdbplainindex/
segments/20090528132511plainindex/segments/20090528132525plainindex/segments/20090528132602
eg:
index:
bin/nutchindexcrawled/indexes_newcrawled/crawldbcrawled/linkdbcrawled/segments/20100313132517
merge:
bin/nutchmergecrawled/index_newcrawled/indexes_new
去重dedup:
bin/nutchdedupcrawled/index_new。
感谢各位的阅读!关于“nutch+hadoop如何配置”这篇文章就分享到这里了,希望以上内容可以对大家有一定的帮助,让大家可以学到更多知识,如果觉得文章不错,可以把它分享出去让更多的人看到吧!
免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。