Zepplin安装与链接hive使用

it2025-05-14  13

安装 直接到官网下载对应的版本上传到集群上解压即可. 解压 tar -zxvf zeppelin-0.8.0-bin-all.tgz -C /opt/module/ 启动 进到刚才解压的目录下运行启动脚本 bin/zeppelin-daemon.sh start 访问 zepplin 默认的端口号为8080,如果和集群的其他端口号冲突的,可以去配置文件里面进行修改。 下面的ip地址改成你安装的机器的地址就可以了。 http://192.168.1.102:8080/ 链接hive 点击截图部分anonymous 下的 interpreter部分 在搜索部分我搜索jdbc 因为我们链接hive 是通过jdbc 进行链接的,然后点击edit进行编辑 在编辑之前我们要先启动hive的 hiveserver2 进程,在确认该进程启动以后我们进行编辑下面内容 添加两个属性: default.driver :org.apache.hive.jdbc.HiveDriver default.url:jdbc:hive2://node1:10000/movie 接下来我们在在Dependencies下面添加下面这些依赖jar既可。 这些jar包都在你安装的hive或者hadoop路径下,不要按照我图片上的内容去复制,因为我们安装的版本号有可能不一样,所以要跟你实际按照的版本去添加即可。 接下来点击保存就可以使用了 使用中遇到的问题。 User: root is not allowed to impersonate root 以为进行完上面的步骤就万事大吉了,但是当执行一个sql的时候,发现报上面这个错误,其实也不是大问题,我们只要在hadoop的配置文件core-site.xml中添加如下属性: 这里面有一个很大的坑,千万记住不要直接把下面的代码复制过去重启hadoop就以为完事大吉了,下面配置中的root,是你安装和启动hadoop或者hive的用户,如果是root就写root,如果是其他用户,就写其他的用户名,写你对应的用户名即可。要不你会发现根本解决不了上面报的错误。 <property> <name>hadoop.proxyuser.root.hosts</name> <value>*</value> </property> <property> <name>hadoop.proxyuser.root.groups</name> <value>*</value> </property> 当你高高兴兴的开始执行sql的时候发现执行一条比较复杂的SQL的时候会报下面的错误 java.sql.SQLException: org.apache.hive.service.cli.HiveSQLException: Error while processing statement: FAILED: Execution Error, return code 1 from org.apache.hadoop.hive.ql.exec.tez.TezTask 有可能后面的具体类不一样啊,因为我现在的hive使用的tez引擎,不是spark引擎,这个不重要,那我们要怎么解决呢? 其实很简单还是去看上面我们配置的参数,我们只需要在default.user 加上我们运行启动hive的linux用户名然后保存就可以了优雅的使用了。 成功的执行了hive sql
最新回复(0)