阅读 82

SparkSQL远程访问CDH集群Hive数据表

创建Maven项目添加如下依赖:

<dependency>
     <groupId>org.apache.sparkgroupId>
     <artifactId>spark-sql_2.11artifactId>
    <version>2.4.0version>
dependency>  
<dependency>
     <groupId>org.apache.sparkgroupId>
     <artifactId>spark-hive_2.11artifactId>
    <version>2.4.0version>
dependency>  

使用SparkSQL访问远程CDH集群Hive数据表主要用以下几种方式:

  • 第一种:通过Hive表直接访问

第一步需要配置本地Hadoop环境变量。

 

 然后就可以通过如下代码直接访问Hive数据表了(此时需要将集群的配置文件拷贝到resources文件下面:core-site.xml、hdfs-site.xml、mapred-site.xml、yarn-site.xml):

SparkConf conf = new SparkConf();
conf.set("hive.metastore.uris","thrift://xxxxxxxx:9083");
SparkSession session = SparkSession.builder()
                                .appName("")
                                .master("local[3]")
                                .config(conf)
                                .enableHiveSupport()
                                .getOrCreate();
session.sql("").show();
  • 第二种:通过读取文件的方式访问(此时需要将集群的配置文件拷贝到resources文件下面:core-site.xml、hdfs-site.xml、mapred-site.xml、yarn-site.xml)
SparkConf conf = new SparkConf();
conf.set("hive.metastore.uris","thrift://xxxxxxxx:9083");
SparkSession session = SparkSession.builder()
                                .appName("")
                                .master("local[3]")
                                .config(conf)
                                .enableHiveSupport()
                                .getOrCreate();
session.read().text("hdfs://nameservice1/......")
session.sql("").show();

 

原文:https://www.cnblogs.com/kxg916361108/p/15101643.html

文章分类
代码人生
版权声明:本站是系统测试站点,无实际运营。本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 XXXXXXo@163.com 举报,一经查实,本站将立刻删除。
相关推荐