hive

vim/etc/profile

--------------------------------------------------

HIVE_HOME=/ddhome/bin/hive

HIVE_CONF_DIR=$HIVE_HOME/conf

PATH=$PATH:$HIVE_HOME/bin

source/etc/profile

#进入目录

cd$HIVE_CONF_DIR

#拷贝hive-default.xml.template并重命名为hive-site.xml

cphive-default.xml.templatehive-site.xml

#编辑hive-site.xml

vimhive-site.xml

vim$HIVE_CONF_DIR/hive-site.xml

<name>hive.metastore.warehouse.dir</name>

<value>/ddhome/bin/hive/warehouse</value>

<name>hive.exec.scratchdir</name>

<value>/ddhome/bin/hive/tmp</value>

<property>

<name>hive.downloaded.resources.dir</name>

<!--value>${system:java.io.tmpdir}/${hive.session.id}_resources</value-->

<value>/ddhome/bin/hive/tmp/${hive.session.id}_resources</value>

<description>Temporarylocaldirectoryforaddedresourcesintheremotefilesystem.</description>

</property>

<property>

<name>hive.server2.logging.operation.log.location</name>

<value>/ddhome/bin/hive/tmp/root/operation_logs</value>

<description>Topleveldirectorywhereoperationlogsarestoredifloggingfunctionalityisenabled</description>

</property>

<property>

<name>hive.exec.local.scratchdir</name>

<value>/ddhome/bin/hive/tmp/${user.name}</value>

<description>LocalscratchspaceforHivejobs</description>

</property

<property>

<name>hive.querylog.location</name>

<value>/ddhome/bin/hive/tmp/${user.name}</value>

<description>LocationofHiveruntimestructuredlogfile</description>

</property>

3.1.4.修改hive-site.xml数据库相关的配置

3.1.4.1.javax.jdo.option.ConnectionDriverName,将该name对应的value修改为MySQL驱动类路径:

<property

<name>javax.jdo.option.ConnectionDriverName</name

<value>com.mysql.jdbc.Driver</value>

</property>

3.1.4.2.javax.jdo.option.ConnectionURL,将该name对应的value修改为MySQL的地址:

<name>javax.jdo.option.ConnectionURL</name>

<value>jdbc:mysql://192.168.55.91:3306/hive?createDatabaseIfNotExist=true&amp;useSSL=false</value>

3.1.4.3.javax.jdo.option.ConnectionUserName,将对应的value修改为MySQL数据库登录名:

<name>javax.jdo.option.ConnectionUserName</name>

<value>root</value>

3.1.4.4.javax.jdo.option.ConnectionPassword,将对应的value修改为MySQL数据库的登录密码:

<name>javax.jdo.option.ConnectionPassword</name><value>dd@2018</value>

3.1.4.5.将MySQL驱动包上载到Hive的lib目录下

scpmysql-connector-java-5.1.36.jar$HIVE_HOME/lib/

3.2.新建hive-env.sh文件并进行修改

cd$HIVE_CONF_DIR

cphive-env.sh.templatehive-env.sh#基于模板创建hive-env.sh

vimhive-env.sh#编辑配置文件并加入以下配置:

-------------------------------------------------

exportHADOOP_HOME=/ddhome/bin/hadoop

exportHIVE_CONF_DIR=/ddhome/bin/hive/conf

exportHIVE_AUX_JARS_PATH=/ddhome/bin/hive/lib

--------------------------------------------------

4.启动和测试

有关安装与配置MySQL数据库请参考文章:CentOS7.0安装配置MySQL5.7

4.1.对MySQL数据库初始化

#进入到hive的bin目录

cd$HIVE_HOME/bin

#对数据库进行初始化

schematool-initSchema-dbTypemysql

执行成功后,在mysql的hive数据库里已生成metadata数据表:

cd$HADOOP_HOME/bin/#进入Hadoop主目录

hadoopfs-mkdir-p/ddhome/bin/hive/warehouse#创建目录

hadoopfs-chmod-R777/ddhome/bin/hive/warehouse#新建的目录赋予读写权限

hadoopfs-mkdir-p/ddhome/bin/hive/#新建/ddhome/bin/hive/目录

hadoopfs-chmod-R777/ddhome/bin/hive#目录赋予读写权限

#用以下命令检查目录是否创建成功

hadoopfs-ls/ddhome/bin/hive

hadoopfs-ls/ddhome/bin/hive/tmp

cd$HIVE_HOME

mkdirtmp

chmod-R777tmp/

CREATETABLEIFNOTEXISTS`huayun.task`(

`id`INTCOMMENT'任务扩展子表ID',

`pid`INTCOMMENT'任务ID',

`car_series`INTCOMMENT'车系ID',

`series_name`STRINGCOMMENT'车系名称',

`purchase_amount`INTCOMMENT'购买数量',

`price`DOUBLECOMMENT'最新投放单价',

`published_price`DOUBLECOMMENT'刊例价',

`state`TINYINTCOMMENT'状态0正常2删除',

`create_time`STRINGCOMMENT'创建时间',

`edit_time`STRINGCOMMENT'修改时间',

`snap_time`STRINGCOMMENT'快照时间'

)

COMMENT'任务子表天快照表'

PARTITIONEDBY(`dt`STRING)

ROWFORMATDELIMITEDFIELDSTERMINATEDBY'\t'STOREDASTEXTFILE;

CREATETABLEIFNOTEXISTShuayun.employee(idint,nameString,

salaryString,destinationString)

COMMENT'Employeedetails'

ROWFORMATDELIMITED

FIELDSTERMINATEDBY';'

LINESTERMINATEDBY'\n'

STOREDASTEXTFILE;

LOADDATA[LOCAL]INPATH'filepath'[OVERWRITE]INTOTABLEtablename

[PARTITION(partcol1=val1,partcol2=val2...)]

/ddhome/tmp/employee.txt

1201;Gopal;45000;Technicalmanager

1202;Manisha;45000;Proofreader

1203;Masthanvali;40000;Technicalwriter

1204;Kiran;40000;HrAdmin

1205;Kranthi;30000;OpAdmin

LOADDATALOCALINPATH'/ddhome/tmp/employees.txt'OVERWRITEINTOTABLEemployees;

yuminstall-ygcclibxml2-devellibxslt-develcyrus-sasl-develpython-develpython-setuptoolspython-simplejsonsqlite-develantgmp-develcyrus-sasl-plaincyrus-sasl-develcyrus-sasl-gssapilibffi-developenldap-devel

安装

构建

http://cloudera.github.io/hue/docs-4.0.0/manual.html#_install_hue

http://gethue.com/

通过如下命令来指定HUE的安装路径

$PREFIX=/usr/sharemakeinstall

$cd/usr/share/hue

如果想把HUE从一个地方移动到另外一个地方,由于HUE使用了Python包的一些绝对路径,移动之后则必须执行以下命令

$rmapp.reg

$rm-rbuild

$makeapps

配置

Hadoop的配置文件

位于/etc/hadoop/conf

hdfs-site.xml

<property>

<name>dfs.webhdfs.enabled</name>

<value>true</value>

</property>

core-site.xml

<property>

<name>hadoop.proxyuser.hue.hosts</name>

<value>*</value>

</property>

<property>

<name>hadoop.proxyuser.hue.groups</name>

<value>*</value>

</property>

httpfs-site.xml

<property>

<name>httpfs.proxyuser.hue.hosts</name>

<value>*</value>

</property>

<property>

<name>httpfs.proxyuser.hue.groups</name>

<value>*</value>

</property>

HUE配置

查看所有可用的配置选项

$cdbuild/env/bin

$./hueconfig_help|less

进入HUE配置目录

$cdhue/desktop/conf

复制一份HUE的配置文件并修改复制的配置文件

$cppseudo-distributed.ini.tmplpseudo-distributed.ini

$vipseudo-distributed.ini

在第42行左右.将时区修改一下

time_zone=Asia/Shanghai

密钥

secret_key=jFE93j;2[290-eiw.KEiwN2s3['d;/.q[eIW^y#e=+Iei*@Mn<qW#30-60个字符

Hadoop配置文件的路径

HADOOP_CONF_DIR=/ddhome/bin/hadoop/etc/hadoop

在[beeswax]配置文件的部分,可以指定以下内容:

beeswax_server_host

Hive服务器应绑定到的主机名或IP。默认情况下,它绑定到localhost,因此仅为本地IPC客户端提供服务。

hive_home_dir

Hive安装的基本目录。

hive_conf_dir

hive配置文件的路径

server_user=hadoop

server_group=hadoop

default_user=hadoop

default_hdfs_superuser=hadoop

由于我的用户是hadoop所以这里是hadoop各位按照自己的情况填写

[librdbms]

可以设置关系型数据库的的一些信息

启动

输入如下命令启动HUE

~/hue/build/env/bin/supervisorstart

启动一个broser,HUE默认的端口号为8000

localhost:8000

相关推荐