Este conteúdo foi traduzido por máquina para sua conveniência e a Huawei Cloud não pode garantir que o conteúdo foi traduzido com precisão. Para exibir o conteúdo original, use o link no canto superior direito para mudar para a página em inglês.
Central de ajuda/ MapReduce Service/ Visão geral de serviço/ Componentes/ Loader/ Recursos de código aberto aprimorados do Loader
Atualizado em 2023-05-19 GMT+08:00

Recursos de código aberto aprimorados do Loader

Recurso de código aberto aprimorado do Loader: importação e exportação de dados

O Loader é desenvolvido com base no Sqoop. Além das funções Sqoop, o Loader possui os seguintes recursos aprimorados:

  • Fornece funções de conversão de dados.
  • Suporta conversão de configuração baseada em GUI.
  • Importa dados de um servidor SFTP/FTP para HDFS/OBS.
  • Importa dados de um servidor SFTP/FTP para uma tabela de HBase.
  • Importa dados de um servidor SFTP/FTP para uma tabela de Phoenix.
  • Importa dados de um servidor SFTP/FTP para uma tabela de Hive.
  • Exporta dados do HDFS/OBS para um servidor SFTP/FTP.
  • Exporta dados de uma tabela de HBase para um servidor SFTP/FTP.
  • Exporta dados de uma tabela de Phoenix para um servidor SFTP/FTP.
  • Importa dados de um banco de dados relacional para uma tabela de HBase.
  • Importa dados de um banco de dados relacional para uma tabela de Phoenix.
  • Importa dados de um banco de dados relacional para uma tabela de Hive.
  • Exporta dados de uma tabela de HBase para um banco de dados relacional.
  • Exporta dados de uma tabela de Phoenix para um banco de dados relacional.
  • Importa dados de uma tabela particionada de Oracle para HDFS/OBS.
  • Importa dados de uma tabela particionada de Oracle para uma tabela de HBase.
  • Importa dados de uma tabela particionada de Oracle para uma tabela de Phoenix.
  • Importa dados de uma tabela particionada de Oracle para uma tabela de Hive.
  • Exporta dados do HDFS/OBS para uma tabela particionada de Oracle.
  • Exporta dados do HBase para uma tabela particionada de Oracle.
  • Exporta dados de uma tabela de Phoenix para uma tabela particionada de Oracle.
  • Importa dados do HDFS para uma tabela de HBase, uma tabela de Phoenix e uma tabela de Hive no mesmo cluster.
  • Exporta dados de uma tabela de HBase e de uma tabela de Phoenix para HDFS/OBS no mesmo cluster.
  • Importa dados para uma tabela de HBase e uma tabela de Phoenix usando bulkload ou put list.
  • Importa todos os tipos de arquivos de um servidor SFTP/FTP para o HDFS. O componente de código aberto Sqoop pode importar apenas arquivos de texto.
  • Exporta todos os tipos de arquivos do HDFS/OBS para um servidor SFTP. O componente de código aberto Sqoop pode exportar apenas arquivos de texto e arquivos SequenceFile.
  • Suporta conversão de formato de codificação de arquivos durante a importação e exportação de arquivos. Os formatos de codificação suportados incluem todos os formatos suportados pelo Java Development Kit (JDK).
  • Mantém a estrutura de diretório original e os nomes de arquivo durante a importação e exportação de arquivos.
  • Suporta combinação de arquivos durante a importação e exportação de arquivos. Por exemplo, se um grande número de arquivos deve ser importado, esses arquivos podem ser combinados em n arquivos (n pode ser configurado).
  • Suporta filtragem de arquivos durante a importação e exportação de arquivos. As regras de filtragem suportam caracteres curinga e expressões regulares.
  • Suporta importação e exportação em lote de tarefas ETL.
  • Suporta consulta por página e palavra-chave e gerenciamento de grupo de tarefas ETL.
  • Fornece endereços IP flutuantes para componentes externos.