博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
Spark&Hive结合起来
阅读量:4966 次
发布时间:2019-06-12

本文共 1050 字,大约阅读时间需要 3 分钟。

  1.spark与Hive结合起来

    前提:当你spark的版本是1.6.1的时候,你的Hive版本要1.2.1,用别的版本会有问题

    我们在做的时候,Hive的版本很简单,我们只需要解压缩,告诉他Hive的源数据在哪里即可

    1.首先我们进入/conf/hive-site.xml文件,进行修改jdbc的配置

    

      则此时这个IP要改为only的vm1下的那个IP,不能改为自己无线网络的IP

    2.进入bin:./bin/hive

      执行成功,会自动创建hive这个库

      hive中创建person表

      切记:在此之前,由于我们的mysql的字符集编码是utf-8,则我们要是用hive,则就要使用latin1

      alter databases hive character set latin1

    3.建表

      create table person(id int,name string,age int) row format delimited fields terminated by ","

    4.从hdfs导入数据

      load data inpath "hdfs://192.168.109.136:9000/person/person.txt" into table person

      此时上面的操作报

      Please check that values for params "default.name" and "hive.metastore.warehouse.dir" do

      not conf 是由于namenode的不一致

      此时修改为weekday01正确

      load data inpath "hdfs://weekday01:9000/person/person.txt" into table person

      

      select * from person

      

      select * from person order by id desc此时这个就会调用集群上的mapReduce

      

      不过这个样子有点慢,我们可以使用spark来进行计算

转载于:https://www.cnblogs.com/wnbahmbb/p/6284089.html

你可能感兴趣的文章
highcharts 图表实例
查看>>
ubuntu下如何查看用户登录及系统授权相关信息
查看>>
秋季学期学习总结
查看>>
SpringBoot 优化内嵌的Tomcat
查看>>
【LaTeX】E喵的LaTeX新手入门教程(1)准备篇
查看>>
highcharts曲线图
查看>>
extjs动态改变样式
查看>>
PL/SQL Developer 查询的数据有乱码或者where 字段名=字段值 查不出来数据
查看>>
宏定义
查看>>
笔记:git基本操作
查看>>
生成php所需要的APNS Service pem证书的步骤
查看>>
JavaWeb之JSON
查看>>
HOT SUMMER 每天都是不一样,积极的去感受生活 C#关闭IE相应的窗口 .
查看>>
windows平台上编译mongdb-cxx-driver
查看>>
optionMenu-普通菜单使用
查看>>
2016-2017-2点集拓扑作业[本科生上课时]讲解视频
查看>>
appium(13)- server config
查看>>
IIS负载均衡-Application Request Route详解第六篇:使用失败请求跟踪规则来诊断ARR...
查看>>
管理信息系统 第三部分 作业
查看>>
[Leetcode Week13]Search a 2D Matrix
查看>>