hiveOnSpark运行出现错误,如何解决呢?急急急急急

出现错误如下:
hive failed with java.lang.classnotfoundexception:org.apache.hadoop.crypto.key.keyprovider

真的很急,拜托各位大佬,跪求解决!!!

我的spark版本是 spark-2.0.0 without-hive(在官网上下载的是匹配Hadoop2.4的)

我的hive版本 是 2.3.2

我的Hadoop版本是2.7.3

一开始以为版本差别不大应该没事呢,结果运行插入,建表没问题,如果查询就会出错

我现在的解决办法是把Hadoop-common-2.4.1放到hive/lib中,请问可以解决吗?


![图片说明](https://img-ask.csdn.net/upload/202005/29/1590748673_637844.jpeg)









#Spark##Hadoop##Linux#
全部评论
少了hadoop-common-2.7.3.jar的包,下载这个包放到hive的lib目录下
2 回复 分享
发布于 2020-05-31 10:05

相关推荐

Dream_coding:你是不是只投大厂了
点赞 评论 收藏
分享
KPLACE:首先是板面看起来不够,有很多奖,比我厉害。项目要精减,大概详细描述两到三个,要把技术栈写清楚,分点,什么算法,什么外设,怎么优化,不要写一大堆,分点,你写上去的目的,一是让别人知道你做了这个知识点,然后在面试官技术面的时侯,他知道你会这个,那么就会跟你深挖这个,然后就是个人评价改为专业技能
点赞 评论 收藏
分享
不愿透露姓名的神秘牛友
02-12 10:05
小米集团 算法工程师 28.0k*15.0
泡沫灬一触即破:楼上那个看来是看人拿高薪,自己又不如意搁这泄愤呢是吧,看你过往评论很难不怀疑你的精神状态
点赞 评论 收藏
分享
评论
点赞
收藏
分享

创作者周榜

更多
牛客网
牛客企业服务