1.在官网下载jdk1.7、maven3.2.1、ant1.9.4,解压设置好环境变量就可以用。
环境变量设置如下:
(1)执行vim /etc/profile
(2)在文件尾部加入:
export JAVA_HOME=/home/spark/jdk1.7 export MAVEN_HOME=/home/spark/apache-maven-3.2.1 export ANT_HOME=/home/spark/apache-ant-1.9.4 export PATH=$JAVA_HOME/bin:$MAVEN_HOME/bin:$ANT_HOME/bin:$PATH export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
(3)执行source /etc/profile
2.在官网下载protobuf2.5.0解压后进入目录依次执行如下命令:
./configure make make check make install
3.安装其它软件,我这里使用yum命令安装。
yum install cmake openssl-devel autoconf automake libtool (有些软件操作系统可能自带,安装时请使用rpm -qa命令查看)
1.登录官网:http://hadoop.apache.org/,找到下载链接,点进去下载即可。
2.解压编译:
tar zxvf hadoop-2.4.0-src.tar.gz cd hadoop-2.4.0-src mvn package -Pdist,native -DskipTests -Dtar
半个多小时后出现BUILD SUCCESS,即编译成功,可在hadoop-2.4.0-src/hadoop-dist/target文件夹中找到编译的文件。
http://www.cnblogs.com/shishanyuan/p/4164104.html http://www.aboutyun.com/thread-8130-1-1.html
免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。