博客
关于我
强烈建议你试试无所不能的chatGPT,快点击我
sqoop 的安装 及与hdfs hive base结合使用
阅读量:6834 次
发布时间:2019-06-26

本文共 2219 字,大约阅读时间需要 7 分钟。

hot3.png

1.上传sqoop

2.安装和配置

    把sqoop添加到环境变量 
    将数据库连接驱动拷贝到$SQOOP_HOME/lib里

3.使用

第一类:数据库中的数据导入到HDFS上

        sqoop import --connect jdbc:mysql://192.168.1.10:3306/itcast --username root --password 123  --table trade_detail --columns 'id, account, income, expenses'
        
        指定输出路径、指定数据分隔符
        sqoop import --connect jdbc:mysql://192.168.1.10:3306/itcast --username root --password 123  --table trade_detail --target-dir '/sqoop/td' --fields-terminated-by '\t'
        
        指定Map数量 -m 
        sqoop import --connect jdbc:mysql://192.168.1.10:3306/itcast --username root --password 123  --table trade_detail --target-dir '/sqoop/td1' --fields-terminated-by '\t' -m 2

        增加where条件, 注意:条件必须用引号引起来

        sqoop import --connect jdbc:mysql://192.168.1.10:3306/itcast --username root --password 123  --table trade_detail --where 'id>3' --target-dir '/sqoop/td2' 

        增加query语句(使用 \ 将语句换行)

        sqoop import --connect jdbc:mysql://192.168.1.10:3306/itcast --username root --password 123 \
--query 'SELECT * FROM trade_detail where id > 2 AND $CONDITIONS' --split-by trade_detail.id --target-dir '/sqoop/td3'
        
        注意:如果使用--query这个命令的时候,需要注意的是where后面的参数,AND $CONDITIONS这个参数必须加上
        而且存在单引号与双引号的区别,如果--query后面使用的是双引号,那么需要在$CONDITIONS前加上\即\$CONDITIONS
        如果设置map数量为1个时即-m 1,不用加上--split-by ${tablename.column},否则需要加上

        
    第二类:将HDFS上的数据导出到数据库中

        sqoop export --connect jdbc:mysql://192.168.8.120:3306/itcast --username root --password 123 --export-dir '/td3' --table td_bak -m 1 --fields-terminated-by '\t'

 

    第三类:将mysql中的数据导入到hive中   (数据默认在default表下)

    sqoop import --connect jdbc:mysql://192.168.52.136:3306/mysql --username root --password 123  --table trade_detail --target-dir '/sqoop/td1' --fields-terminated-by '\t' --hive-import

    

    第四类:将hive中的数据导出到mysql

 sqoop export --connect jdbc:mysql://node11:3306/mysql --username root --password 123 --table hivemsql --export-dir '/user/hive/warehouse/trade_detail'   --fields-terminated-by '\t'

--table  表示向mysql中的哪张表中插入数据

--export-dir   hive中数据的位置

    第五类:将mysql中的数据导入到hbase中

sqoop import --connect jdbc:mysql://192.168.52.136:3306/mysql --username root --password 123  --table trade_detail --hbase-create-table --hbase-table mysqlhbase --column-family info --hbase-row-key id

--hbase-table   hbase中对应的表名

--column-family  列族

--hbase-row-key  用数据库中的哪个字段作为rowkey

 

 

转载于:https://my.oschina.net/xiaozhou18/blog/800162

你可能感兴趣的文章
salt stack 运维工具——自动化(二)
查看>>
Windows系统中的IE浏览器相关的组策略设置
查看>>
南大应届毕业生获得40万年薪的思考
查看>>
centos 6.7 安装kvm
查看>>
cocos2dx基础篇(16)——滚动视图CCScrollView
查看>>
HDU-1869 六度分离
查看>>
很滑稽,网络规划师过了!
查看>>
unix 时间戳转化为 日期格式
查看>>
转DES的dotNet到php实现
查看>>
Python的 if .else.elif语句详解
查看>>
SQL Server 日常维护经典应用
查看>>
rsync服务端和客户端配置自动化配置脚本
查看>>
iptables学习笔记之编译内核和iptables及安装l7proto
查看>>
Python实现IP地址归属地查询
查看>>
东北大学数学建模课程
查看>>
haproxy多进程下对后端服务器进行摘除
查看>>
性能之ab简单使用
查看>>
乐视2016年营收218.3亿元,净利润7.66亿元
查看>>
HAproxy
查看>>
nagios 服务端与客户端监控安装与详细配置,各配置文件详解
查看>>