解压官网下载的安装包 tar -xvf apache-hive-2.1.0.tar.gz
* vim /etc/profile
* 文件结尾处添加
* export $HIVE_HOME=/usr/lib/apache-hive-2.1.0
* export $PATH=$PATH:$HIVE_HOME/bin
* source /etc/profile使配置文件生效!
那些认为已经有数据仓库的传统企业不需要hadoop的,很快就要out了。
据我所知,很多银行已经开始评估将data warehouse迁移到hadoop相关产品上来了,倒不是为了利用hadoop的低成本优势做传统bi,而是看中大数据平台上的各种成熟的machine learning,data mining,大数据对传统行业的改造和洗牌刚刚开始。
至于传统bi工具如何结合hive,接口上问题不大,jdbc,odbc都可以,自己写thrift client也问题不大,麻烦在于,目前hive(以及impala,shark)这些支持的都不是标准sql,历史遗留下来的那些动辄几页的sql根本没法在hive上执行。
Hadoop|
Apache Pig|
Apache Kafka|
Apache Storm|
Impala|
Zookeeper|
SAS|
TensorFlow|
人工智能基础|
Apache Kylin|
Openstack|
Flink|
MapReduce|
大数据|
云计算|
用户登录
还没有账号?立即注册
用户注册
投稿取消
文章分类: |
|
还能输入300字
上传中....