Impala (1) 기본 명령 및 조작
-- impala a, Hive ,Hive
create table a(id int ,name string);
-- Hive b, impala ,impala
create table b(id int ,name string);
--
invalidate metadata;
-- 1. Hive impala a ,
-- 2.vi /etc/passwd hdfs hdfs:x:996:993:Hadoop HDFS:/var/lib/hadoop-hdfs:/sbin/nologin hdfs:x:996:993:Hadoop HDFS:/var/lib/hadoop-hdfs:/bin/bash
-- 3. su hdfs hdfs dfs -chmod -R 777 /
-- 4. Hive set mapreduce.framework.name=local;
-- 5. Hive , impala , a , refresh a;
--
impala-shell -i localhost
--
impala-shell --quiet
--
--
impala-shell -q 'select * from a'
--
impala-shell -q 'select * from a' -o a.txt
-- -b -o --output_delimiter=','
impala-shell -q 'select * from a' -B --output_delimiter=',' -o a.txt
-- shell impala shell
shell hdfs dfs -ls /;
explain select * from a;
+------------------------------------------------------------------------------------+
| Explain String |
+------------------------------------------------------------------------------------+
| Max Per-Host Resource Reservation: Memory=8.00KB Threads=3 |
| Per-Host Resource Estimates: Memory=64MB |
| WARNING: The following tables are missing relevant table and/or column statistics. |
| default.a |
| |
| PLAN-ROOT SINK |
| | |
| 01:EXCHANGE [UNPARTITIONED] |
| | |
| 00:SCAN HDFS [default.a] |
| partitions=1/1 files=6 size=34B |
| row-size=15B cardinality=unavailable |
+------------------------------------------------------------------------------------+
[cdh01:21000] default> explain select count(1) from a;
+------------------------------------------------------------------------------------+
| Explain String |
+------------------------------------------------------------------------------------+
| Max Per-Host Resource Reservation: Memory=8.00KB Threads=3 |
| Per-Host Resource Estimates: Memory=84MB |
| WARNING: The following tables are missing relevant table and/or column statistics. |
| default.a |
| |
| PLAN-ROOT SINK |
| | |
| 03:AGGREGATE [FINALIZE] |
| | output: count:merge(*) |
| | row-size=8B cardinality=1 |
| | |
| 02:EXCHANGE [UNPARTITIONED] |
| | |
| 01:AGGREGATE |
| | output: count(*) |
| | row-size=8B cardinality=1 |
| | |
| 00:SCAN HDFS [default.a] |
| partitions=1/1 files=6 size=34B |
| row-size=0B cardinality=unavailable |
+------------------------------------------------------------------------------------+
--
select current_database();
--
show tables in default;
--
show tables in default like 't*';
--
desc tb_name
--
desc formatted tb_name;
이 내용에 흥미가 있습니까?
현재 기사가 여러분의 문제를 해결하지 못하는 경우 AI 엔진은 머신러닝 분석(스마트 모델이 방금 만들어져 부정확한 경우가 있을 수 있음)을 통해 가장 유사한 기사를 추천합니다:
Spark 의 -- Spark Submit 제출 프로그램 상세 설명이 스 크 립 트 는 Spark 류 경로 (classpath) 와 응용 프로그램 의존 패 키 지 를 설정 할 수 있 고 서로 다른 Spark 가 지원 하 는 클 러 스 터 관리 와 배치 모드 를 설정 할 수 있 습 ...
텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
CC BY-SA 2.5, CC BY-SA 3.0 및 CC BY-SA 4.0에 따라 라이센스가 부여됩니다.