餘老師帶你學習大數據-Spark快速大數據處理第五章第三節Hive基本操作

檢查集羣是否正常

1、在app-11上,以hadoop用戶登錄。
命令:su – hadoop
在這裏插入圖片描述

2、進入/hadoop/目錄下。
命令:cd /hadoop/
在這裏插入圖片描述

3、檢查集羣是否正常。
命令:jps
在這裏插入圖片描述

操作

1、在app-12上,以hadoop用戶登錄。
命令:su – hadoop
在這裏插入圖片描述

2、查看Hive支持哪些命令。
命令:hive --help
在這裏插入圖片描述

3、查看環境變量裏的hadoop配置。
命令:echo $HADOOP_HOME
在這裏插入圖片描述

4、啓動客戶端。
命令:hive 注:功能比較弱。不支持刪除、自動補傳等功能。
在這裏插入圖片描述

5、按Ctrl+c,退出。
在這裏插入圖片描述

6、不啓用hive查詢databases。
命令:hive -e 「show databases」
在這裏插入圖片描述

7、使用靜默參數,將結果輸入文件中。
命令:hive -S -e 「show databases」 > /tmp/hai.txt
在這裏插入圖片描述

8、查看輸出文件結果。
命令:cat /tmp/hai.txt
在這裏插入圖片描述

9、進入hive。
命令:hive --service cli
在這裏插入圖片描述

10、查看databases。
命令:show databases;
在這裏插入圖片描述

11、查看hdfs目錄。
命令:dfs -ls / ;
在這裏插入圖片描述

12、退出。
命令:quit;
在這裏插入圖片描述

模擬hive啓動失敗

1、先刪除HADOOP_HOME。
命令:unset HADOOP_HOME
在這裏插入圖片描述

2、查看環境變量。
命令:echo $HADOOP_HOME 注:因爲刪除了,所有空了。
在這裏插入圖片描述

3、刪除Hadoop環境變量。
命令:export PATH=/hadoop/Hive/apache-hive-3.1.1-bin/bin:/hadoop/JDK/jdk1.8.0_131/bin:/usr/local/bin:/bin:/usr/bin:/usr/local/sbin:/usr/sbin:/home/hadoop/.local/bin:/home/hadoop/bin
在這裏插入圖片描述

4、啓動hive客戶端。
命令:hive --service cli 注:啓動失敗。
在這裏插入圖片描述
詳細學習內容可觀看Spark快速大數據處理掃一掃~~~或者引擎搜索Spark餘海峯
在這裏插入圖片描述