hiveOnSpark运行出现错误,如何解决呢?急急急急急

出现错误如下:
hive failed with java.lang.classnotfoundexception:org.apache.hadoop.crypto.key.keyprovider

真的很急,拜托各位大佬,跪求解决!!!

我的spark版本是 spark-2.0.0 without-hive(在官网上下载的是匹配Hadoop2.4的)

我的hive版本 是 2.3.2

我的Hadoop版本是2.7.3

一开始以为版本差别不大应该没事呢,结果运行插入,建表没问题,如果查询就会出错

我现在的解决办法是把Hadoop-common-2.4.1放到hive/lib中,请问可以解决吗?


![图片说明](https://img-ask.csdn.net/upload/202005/29/1590748673_637844.jpeg)









#Spark##Hadoop##Linux#
全部评论
少了hadoop-common-2.7.3.jar的包,下载这个包放到hive的lib目录下
2 回复 分享
发布于 2020-05-31 10:05

相关推荐

宇智波爱学习:我还没收到笔试
投递荣耀等公司10个岗位
点赞 评论 收藏
分享
10-06 12:46
门头沟学院 Java
跨考小白:定时任务启动
点赞 评论 收藏
分享
评论
点赞
收藏
分享
牛客网
牛客企业服务