温馨提示×

温馨提示×

您好,登录后才能下订单哦!

密码登录×
登录注册×
其他方式登录
点击 登录注册 即表示同意《亿速云用户服务条款》

Hadoop 实践(一) 环境搭建

发布时间:2020-08-01 10:43:34 来源:网络 阅读:371 作者:lu_zhishen 栏目:大数据

大数据定义是:大量的非结构话的数据。量要大,要非结构化。

Hadoop 分三部分组成,1.hdfs hadoop分布式文件系统。2.MapReduce 分布式计算。3.hive 分布式存储。

操作系统:centos6.5 64

环境搭建:1.安装Hadoop,2.安装mysql, 3.安装hive,4,安装jdk

  1. Hadoop安装:

    下载Hadoop1.0.4,hadoop-1.0.4.tar.gz。   

 wget http://archive.apache.org/dist/hadoop/core/hadoop-1.0.4/hadoop-1.0.4.tar.gz

    解压:

    tar xzvf hadoop-1.0.4.tar.gz  -C /usr

    修改3个配置文件

    cd /usr/hadoop-1.0.4/conf/

     vi core-site.xml

<?xml version="1.0"?>

<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>


<!-- Put site-specific property overrides in this file. -->


<configuration>

        <property>

                <name>fs.default.name</name>

                <value>hdfs://localhost:9000</value>

        </property>

</configuration>

     vi mapred-site.xml

<?xml version="1.0"?>

<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>


<!-- Put site-specific property overrides in this file. -->


<configuration>

        <property>

                <name>mapred.job.tracker</name>

                <value>localhost:9001</value>

        </property>

</configuration>

     vi hdfs-site.xml

<?xml version="1.0"?>

<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>


<!-- Put site-specific property overrides in this file. -->


<configuration>

        <property>

                <name>dfs.name.dir</name>

                <value>/home/longlong/temp/log1,/home/longlong/temp/log2</value>

        </property>

        <property>

                <name>dfs.data.dir</name>

                <value>/home/longlong/temp/data1,/home/longlong/temp/data2</value>

        </property>

        <property>

                <name>dfs.replication</name>

                <value>2</value>

        </property>

</configuration>

    配置环境变量,此处粘贴了java,hive,hadoop的环境变量

    vi /etc/profile

JAVA_HOME=/home/Hadoop/jdk1.6.0_45

CLASSPATH=$JAVA_HOME/jre/lib/rt.jar

HADOOP_HOME=/usr/hadoop-1.0.4

HIVE_HOME=/usr/hive

PATH=$HADOOP_HOME/bin:$PATH:$JAVA_HOME/bin:$HIVE_HOME/bin


    安装jdk:

    下载jdk

wget http://download.oracle.com/otn-pub/java/jdk/6u45-b06/jdk-6u45-linux-x64.bin

    chmod +x jdk-6u45-linux-x64.bin

     ./jdk-6u45-linux-x64.bin

    配置 vi hadoop-env.sh,末尾添加jdkhome    

export JAVA_HOME=/home/Hadoop/jdk1.6.0_45

    

    进入bin目录配置  vi hadoop-config.sh

export HADOOP_HOME=${HADOOP_PREFIX}

export HADOOP_HOME_WARN_SUPPRESS=1


    格式化

     ./hadoop namenode -format

    

2.mysql 安装,


3.hive安装,

    下载 

 wget http://mirrors.cnnic.cn/apache/hive/hive-0.13.1/apache-hive-0.13.1-bin.tar.gz

tar -xf apache-hive-0.13.1-bin.tar.gz

 mv apache-hive-0.13.1-bin hive

更换元数据库

    cd conf/

 touch hive-site.xml

vi hive-site.xml

<?xml version="1.0" ?>

<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>

<configuration>

        <property>

                <name>javax.jdo.option.ConnectionURL</name>

                <value>jdbc:mysql://localhost:3306/hive</value>

        </property>

        <property>

                <name>javax.jdo.option.ConnectionDriverName</name>

                <value>com.mysql.jdbc.Driver</value>

        </property>

        <property>

                <name>javax.jdo.option.ConnectionUserName</name>

                <value>root</value>

        </property>

        <property>

                <name>javax.jdo.option.ConnectionPassword</name>

                <value>root</value>

        </property>

</configuration>


    下载mysql驱动,

 wget http://cdn.mysql.com/Downloads/Connector-J/mysql-connector-java-5.0.8.tar.gz

tar -xzvf mysql-connector-java-5.0.8.tar.gz

cd mysql-connector-java-5.0.8

cp mysql-connector-java-5.0.8-bin.jar /usr/hive/lib/



启动

1.hdfs 启动

cd /usr/hadoop-1.0.4/bin

./start-all.sh

password/操作系统密码


2.mysql 启动

service mysqld start

mysql -uroot -proot


3.hive启动

cd /usr/hive/bin

./hive









    


向AI问一下细节

免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。

AI