百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 技术教程 > 正文

hadoop3.2.4安装 sqoop1.4.7(hadoop2.10.1安装)

csdh11 2025-05-02 17:16 7 浏览

sqoop功能是非常完善的,兼容性也很好。但是hadoop3版本没有官方的集成jar包版本,所以我通过阅读sqoop的官方文档,解决了如何在配置hadoop3版本的sqoop。核心就两点,从集成包里获取必须的jar包,其余必须的jar包从hadoop和hive中引用即可。

sqoop官方地址:
https://sqoop.apache.org/docs/1.4.7/SqoopUserGuide.html?spm=
a2c63.p38356.0.0.7ffe76db8MdNDv#_syntax

1.下载sqoop1.4.7两个版本

http://archive.apache.org/dist/sqoop/1.4.7

下载这两个文:


sqoop-1.4.7.bin__hadoop-2.6.0.tar.gz # 只用到里面的jar包

sqoop-1.4.7.tar.gz # 上传到服务器


我这里finalshell为例,服务器环境centos7+hadoop3.2.4+hive3.1.2

将sqoop-1.4.7.tar.gz上传到/home/hadoop/sqoop/目录,并解压

[hadoop@localhost sqoop]$ tar -zxvf sqoop-1.4.7.tar.gz 

2.提取sqoop-1.4.7.bin__hadoop-2.6.0.tar压缩包里的部分jar包

提取sqoop-1.4.7.jar放到sqoop-1.4.7根目录,正常纯净版sqoop是没有这个jar包的

提取lib目录下的这三个必须的jar包放到sqoop-1.4.7/lib/目录下,正常纯净版sqoop的lib目录下是没有文件的。我的是存在了前两个

其余的jar包我们不用导入,其余的从本地环境里的hadoop和hive中引用即可。

3.添加sqoop配置信息,引用hadoop,hive的lib库

打开sqoop-1.4.7/conf 目录下的sqoop-env.sh文件追加如下信息

其中HADOOP_COMMON_HOME HADOOP_MAPRED_HOME 环境变量要写你自己的hadoop目录地址

hive的HIVE_HOME HIVE_CONF_DIR同样要写你自己的hive目录地址

最后一条是引用你hive里的lib库

[hadoop@localhost conf]$ mv sqoop-env-template.sh sqoop-env.sh
[hadoop@localhost conf]$ vim sqoop-env.sh 

export HADOOP_COMMON_HOME=/home/hadoop/hadoop-3.2.4
export HADOOP_MAPRED_HOME=/home/hadoop/hadoop-3.2.4
export HIVE_HOME=/home/hadoop/apache-hive-3.1.2-bin
export HIVE_CONF_DIR=/home/hadoop/apache-hive-3.1.2-bin/conf
export HADOOP_CLASSPATH=$HADOOP_CLASSPATH:$HIVE_HOME/lib/*

4.配置环境变量


[hadoop@localhost conf]$ vim ~/.bashrc 
#sqoop
export HBASE_HOME=/home/hadoop/sqoop/sqoop-1.4.7
export PATH=$PATH:$HBASE_HOME/bin
[hadoop@localhost conf]$ source /etc/profile
[hadoop@localhost conf]$ sqoop version
bash: sqoop: 未找到命令...
[hadoop@localhost conf]$ source ~/.bashrc 

导入数据相关命令

sqoop的 import-all-tables使用要求

要使import-all-tables工具有用,必须满足以下条件:

1.每个表必须具有主键或使用--autoreset-to-one-mapper选项。

2.导入每张表的所有列。

3.使用默认拆分列,不能使用WHERE。

全库导入
sqoop import-all-tables "-Dorg.apache.sqoop.splitter.allow_text_splitter=true" \
--connect jdbc:mysql://10.22.171.188:3306/AIDM40W \
--username root \
--password 890iop*()IOP \
--hive-import \
--hive-overwrite \
--hive-database dz \
--fields-terminated-by '\t' \
--exclude-tables  'CASE_FUN_TABLE,a1,all_type_label_tables' \
--as-parquetfile 

sqoop import-all-tables --connect "jdbc:mysql://10.22.171.188:3306/AIDM40W" \
--username root \
--password 123456 \
--hive-import \
--hive-overwrite \
--hive-database dz \
--exclude-tables  'user_part_501,user_part_601,user_part_701,user_part_801,CASE_FUN_TABLE,a1,all_type_label_tables,tb_user,test,log,s1,test_t,db_object_constraint_test_01,user_101,user_301,user_302,user_303,user_304,user_part_102,user_part_101,user_part_201,user_part_301,user_part_401,user_part_index_101,user_part_index_102,user_part_index_103,user_part_index_104,user_part_index_201,user_part_index_202,user_part_index_301,user_part_index_302,user_part_index_401,user_part_index_402,user_a3,user_201,user_202,user_203,user_204,user_401,user_402,user_403,user_501,user_502,user_a1,user_a2' \
--create-hive-table

#带主键
aa
all_type_label_tables
db_object_constraint_test_01
tb_user
test
user_201
user_202
user_203
user_204
user_401
user_402
user_403
user_501
user_502
user_a1
user_a2

#--exclude-tables  'drop_table' \        (此参数可以 exclude掉不需要import的表(多个表逗号分隔))
#--create-hive-table \  (不能和as-parquetfile共用)
#--direct \                (只支持文本格式,不能和as-parquetfile共用)
#--as-textfile \

sqoop import  --connect "jdbc:mysql://10.22.171.188:3306/AIDM40W" \
--username root \
--password 123456 \
--table all_type_label_tables \
--delete-target-dir \
--fields-terminated-by '\t' \
--m 1 \
--hive-import \
--hive-overwrite \
--hive-database dz \
--create-hive-table \
--hive-table all_type_label_tables

全量备份(hive表不存在,导入时自动创建hive表)
sqoop import --connect jdbc:mysql://10.22.171.188:3306/AIDM40W \
--username root --password 123456 --table users \
--hive-import \
--hive-database dz \
--create-hive-table \
--fields-terminated-by '\t' \
--null-string '\\N' \
--null-non-string '\\N' \
--split-by id \
-m 1

相关推荐

Github霸榜的SpringBoot全套学习教程,从入门到实战,内容超详细

前言...

SpringBoot+LayUI后台管理系统开发脚手架

源码获取方式:关注,转发之后私信回复【源码】即可免费获取到!项目简介本项目本着避免重复造轮子的原则,建立一套快速开发JavaWEB项目(springboot-mini),能满足大部分后台管理系统基础开...

Spring Boot+Vue全栈开发实战,中文版高清PDF资源

SpringBoot+Vue全栈开发实战,中文高清PDF资源,需要的可以私我:)SpringBoot致力于简化开发配置并为企业级开发提供一系列非业务性功能,而Vue则采用数据驱动视图的方式将程序...

2021年超详细的java学习路线总结—纯干货分享

本文整理了java开发的学习路线和相关的学习资源,非常适合零基础入门java的同学,希望大家在学习的时候,能够节省时间。纯干货,良心推荐!第一阶段:Java基础...

探秘Spring Cache:让Java应用飞起来的秘密武器

探秘SpringCache:让Java应用飞起来的秘密武器在当今快节奏的软件开发环境中,性能优化显得尤为重要。SpringCache作为Spring框架的一部分,为我们提供了强大的缓存管理能力,让...

3,从零开始搭建SSHM开发框架(集成Spring MVC)

目录本专题博客已共享在(这个可能会更新的稍微一些)https://code.csdn.net/yangwei19680827/maven_sshm_blog...

Spring Boot中如何使用缓存?超简单

SpringBoot中的缓存可以减少从数据库重复获取数据或执行昂贵计算的需要,从而显著提高应用程序的性能。SpringBoot提供了与各种缓存提供程序的集成,您可以在应用程序中轻松配置和使用缓...

我敢保证,全网没有再比这更详细的Java知识点总结了,送你啊

接下来你看到的将是全网最详细的Java知识点总结,全文分为三大部分:Java基础、Java框架、Java+云数据小编将为大家仔细讲解每大部分里面的详细知识点,别眨眼,从小白到大佬、零基础到精通,你绝...

1,从零开始搭建SSHM开发框架(环境准备)

目录本专题博客已共享在https://code.csdn.net/yangwei19680827/maven_sshm_blog1,从零开始搭建SSHM开发框架(环境准备)...

做一个适合二次开发的低代码平台,把程序员从curd中解脱出来-1

干程序员也有好长时间了,大多数时间都是在做curd。现在想做一个通用的curd平台直接将我们解放出来;把核心放在业务处理中。用过代码生成器,在数据表设计好之后使用它就可以生成需要的controller...

设计一个高性能Java Web框架(java做网站的框架)

设计一个高性能JavaWeb框架在当今互联网高速发展的时代,构建高性能的JavaWeb框架对于提升用户体验至关重要。本文将从多个角度探讨如何设计这样一个框架,让我们一起进入这段充满挑战和乐趣的旅程...

【推荐】强&牛!一款开源免费的功能强大的代码生成器系统!

今天,给大家推荐一个代码生成器系统项目,这个项目目前收获了5.3KStar,个人觉得不错,值得拿出来和大家分享下。这是我目前见过最好的代码生成器系统项目。功能完整,代码结构清晰。...

Java面试题及答案总结(2025版持续更新)

大家好,我是Java面试分享最近很多小伙伴在忙着找工作,给大家整理了一份非常全面的Java面试场景题及答案。...

Java开发网站架构演变过程-从单体应用到微服务架构详解

Java开发网站架构演变过程,到目前为止,大致分为5个阶段,分别为单体架构、集群架构、分布式架构、SOA架构和微服务架构。下面玄武老师来给大家详细介绍下这5种架构模式的发展背景、各自优缺点以及涉及到的...

本地缓存GuavaCache(一)(guava本地缓存原理)

在并发量、吞吐量越来越大的情况下往往是离不开缓存的,使用缓存能减轻数据库的压力,临时存储数据。根据不同的场景选择不同的缓存,分布式缓存有Redis,Memcached、Tair、EVCache、Aer...