Loader基本原理
Loader是在开源Sqoop组件的基础上进行了一些扩展,实现MRS与关系型数据库、文件系统之间交换“数据”、“文件”,同时也可以将数据从关系型数据库或者文件服务器导入到HDFS/HBase中,或者反过来从HDFS/HBase导出到关系型数据库或者文件服务器中。
Loader模型主要由Loader Client和Loader Server组成,如图1所示。
上图中各部分的功能说明如表1所示。
| 
       名称  | 
     
       描述  | 
    
|---|---|
| 
       Loader Client  | 
     
       Loader的客户端,包括WebUI和CLI版本两种交互界面。  | 
    
| 
       Loader Server  | 
     
       Loader的服务端,主要功能包括:处理客户端操作请求、管理连接器和元数据、提交MapReduce作业和监控MapReduce作业状态等。  | 
    
| 
       REST API  | 
     
       实现RESTful(HTTP + JSON)接口,处理来自客户端的操作请求。  | 
    
| 
       Job Scheduler  | 
     
       简单的作业调度模块,支持周期性的执行Loader作业。  | 
    
| 
       Transform Engine  | 
     
       数据转换处理引擎,支持字段合并、字符串剪切、字符串反序等。  | 
    
| 
       Execution Engine  | 
     
       Loader作业执行引擎,支持以MapReduce方式执行Loader作业。  | 
    
| 
       Submission Engine  | 
     
       Loader作业提交引擎,支持将作业提交给MapReduce执行。  | 
    
| 
       Job Manager  | 
     
       管理Loader作业,包括创建作业、查询作业、更新作业、删除作业、激活作业、去激活作业、启动作业、停止作业。  | 
    
| 
       Metadata Repository  | 
     
       元数据仓库,存储和管理Loader的连接器、转换步骤、作业等数据。  | 
    
| 
       HA Manager  | 
     
       管理Loader Server进程的主备状态,Loader Server包含2个节点,以主备方式部署。  | 
    
Loader通过MapReduce作业实现并行的导入或者导出作业任务,不同类型的导入导出作业可能只包含Map阶段或者同时Map和Reduce阶段。
Loader同时利用MapReduce实现容错,在作业任务执行失败时,可以重新调度。
- 数据导入到HBase
   
在MapReduce作业的Map阶段中从外部数据源抽取数据。
在MapReduce作业的Reduce阶段中,按Region的个数启动同样个数的Reduce Task,Reduce Task从Map接收数据,然后按Region生成HFile,存放在HDFS临时目录中。
在MapReduce作业的提交阶段,将HFile从临时目录迁移到HBase目录中。
 - 数据导入HDFS
   
在MapReduce作业的Map阶段中从外部数据源抽取数据,并将数据输出到HDFS临时目录下(以“输出目录-ldtmp”命名)。
在MapReduce作业的提交阶段,将文件从临时目录迁移到输出目录中。
 
- 数据导出到关系型数据库
   
在MapReduce作业的Map阶段,从HDFS或者HBase中抽取数据,然后将数据通过JDBC接口插入到临时表(Staging Table)中。
在MapReduce作业的提交阶段,将数据从临时表迁移到正式表中。
 
- 数据导出到文件系统
   
在MapReduce作业的Map阶段,从HDFS或者HBase中抽取数据,然后将数据写入到文件服务器临时目录中。
在MapReduce作业的提交阶段,将文件从临时目录迁移到正式目录。
 
Loader的架构和详细原理介绍,请参见:https://sqoop.apache.org/docs/1.99.3/index.html。
    
      