#
Hadoop作为搭建大数据处理平台的重要“基石”,关于它的分析和讲解的文章已经有很多了。Hadoop本身是一分布式的系统,因此在安装的时候,需要多每一个节点进行组建的安装。并且由于是开源软件,其安装过
新增master节点的配置文件: # vim /usr/local/redis-3.0.6-6379/redis.conf daemonize yes
spark集群使用hadoop用户运行,集群机器如下:1DEV-HADOOP-01192.168.9.110Master2DEV-HADOOP-02192.168.9.111Worker3DEV-HA
添加db # su - oracle $ srvctl add database -d cfcdb -o&nb
新节点不用拷贝软件,系统环境配置和rac1相同即可,手动添加与rac1、rac2互信,更改hosts文件.然后开搞:老节点oracle及grid用户下检查:cluvfy stage -pre node