温馨提示×

温馨提示×

您好,登录后才能下订单哦!

密码登录×
登录注册×
其他方式登录
点击 登录注册 即表示同意《亿速云用户服务条款》

spark with hive的用法示例

发布时间:2021-12-10 14:18:46 来源:亿速云 阅读:211 作者:小新 栏目:大数据

这篇文章主要介绍了spark with hive的用法示例,具有一定借鉴价值,感兴趣的朋友可以参考下,希望大家阅读完这篇文章之后大有收获,下面让小编带着大家一起了解一下。

//需要spark-hive project
package hgs.spark.hive
import org.apache.spark.SparkConf
import org.apache.spark.SparkContext
import org.apache.hadoop.hive.conf.HiveConfUtil
import org.apache.spark.sql.SparkSession
//注:需要将hive-site.xml放到当前工程的classpath下面
object SparkWithHive {
  def main(args: Array[String]): Unit = {
    val conf = new SparkConf().setAppName("hive").setMaster("local")
    val context = new SparkContext(conf)
    
    val builder = SparkSession.builder()
           .appName("hiveApp")
           .config("spark.sql.warehouse.dir","hdfs://bigdata00:9000/user/hive/warehouse/")
           .enableHiveSupport()
           .getOrCreate()
    import builder.implicits
    //test库下面的test表 ssql.show()可以打印表的信息
    val ssql =  builder.sql("select a.id,b.name,b.age+10 bigage from test.test a,test.test1 b where a.id = b.id")
    //这里转换为rdd进行操作,转换为三元的tuple,  List((1,hgs,26), (2,wd,24), (3,zz,25), (4,cm,24))
    val list = ssql.rdd.map(x=>(x(0),x(1),x(2))).collect()
    println(list.toList)
    context.stop()
  }
}

感谢你能够认真阅读完这篇文章,希望小编分享的“spark with hive的用法示例”这篇文章对大家有帮助,同时也希望大家多多支持亿速云,关注亿速云行业资讯频道,更多相关知识等着你来学习!

向AI问一下细节

免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。

AI