当前位置:主页 > 查看内容

Spark SQL CLI部署CentOS分布式集群Hadoop上方法

发布时间:2021-06-29 00:00| 位朋友查看

简介:? 前言 配置的虚拟机为Centos6.7系统hadoop版本为2.6.0版本先前已经完成搭建 CentOS部署Hbase 、 CentOS6.7搭建Zookeeper 和 编写MapReduce前置插件Hadoop-Eclipse-Plugin 安装 。在此基础上完成了 Hive详解以及CentOS下部署Hive和Mysql 和 Spark框架在CentO……

?


前言

配置的虚拟机为Centos6.7系统,hadoop版本为2.6.0版本,先前已经完成搭建CentOS部署HbaseCentOS6.7搭建Zookeeper编写MapReduce前置插件Hadoop-Eclipse-Plugin 安装。在此基础上完成了Hive详解以及CentOS下部署Hive和MysqlSpark框架在CentOS下部署搭建。现在进行Spark的组件Spark SQL的部署。

对于Spark SQL的详细介绍可以在Spark框架深度理解二:生态圈中参阅。


首先我所部署的集群配置为

CentOS-6.7

Spark-2.4.7

Hive-2.3.7

若有版本不兼容的问题可参考其他版本的部署。

若要使用Spark SQL CLI的方式访问操作Hive表数据,需要对Spark SQL进行如下所示的环境配置,将Spark SQL 连接到一个部署好的Hive上。

当然即使没有部署好Hive,Spark SQL也是可以运行的,但是Spark SQL会在当前的工作目录中创建出自己的Hive元数据库,称为metastore_db。

现在正式进行配置。

(1)寻找自己所安装的Hive,进入到conf中:

将hive-site.xml文件复制到spark的conf目录下:

cp /usr/local/hive-2.3.7/conf/hive-site.xml /usr/local/spark2.4.7/conf

(2)现在我们需要MySQL驱动。缺少MySQL驱动可以自行在官网上下载

?wget http://dev.mysql.com/get/Downloads/Connector-J/mysql-connector-java-5.1.40.tar.gz

不过既然配置过Hive想必MySQL驱动以及放在原有的Hive的lib目录下

将该驱动放入spark的jars中(spark升到2.0.0版本后lib改为了jars目录)

cp mysql-connector-java-5.1.40-bin.jar /usr/local/spark2.4.7/jars

然后在spark的spark-env.sh文件下添加一行路径

export SPARK_CLASSPATH=/usr/local/spark2.4.7/jars/mysql-connector-java-5.1.40-bin.jar

(3)启动MySQL服务

service mysqld start

(4)启动Hive的metastore服务:

(5)修改日志级别。

进入spark的conf目录:

将该目录下的log4j.properties.template文件复制为log4j.properties,修改该文件:

(6)启动Spark集群。

./start-all.sh

(7)启动spark-sql。进入spark的bin目录下:

测试完后验证部署成功。


?


?

;原文链接:https://blog.csdn.net/master_hunter/article/details/115677849
本站部分内容转载于网络,版权归原作者所有,转载之目的在于传播更多优秀技术内容,如有侵权请联系QQ/微信:153890879删除,谢谢!
上一篇:使用QQ推广作为客服或留言 下一篇:没有了

推荐图文


随机推荐