Este conteúdo foi traduzido por máquina para sua conveniência e a Huawei Cloud não pode garantir que o conteúdo foi traduzido com precisão. Para exibir o conteúdo original, use o link no canto superior direito para mudar para a página em inglês.
Central de ajuda/
MapReduce Service/
Visão geral de serviço/
Componentes/
Loader/
Recursos de código aberto aprimorados do Loader
Atualizado em 2023-05-19 GMT+08:00
Recursos de código aberto aprimorados do Loader
Recurso de código aberto aprimorado do Loader: importação e exportação de dados
O Loader é desenvolvido com base no Sqoop. Além das funções Sqoop, o Loader possui os seguintes recursos aprimorados:
- Fornece funções de conversão de dados.
- Suporta conversão de configuração baseada em GUI.
- Importa dados de um servidor SFTP/FTP para HDFS/OBS.
- Importa dados de um servidor SFTP/FTP para uma tabela de HBase.
- Importa dados de um servidor SFTP/FTP para uma tabela de Phoenix.
- Importa dados de um servidor SFTP/FTP para uma tabela de Hive.
- Exporta dados do HDFS/OBS para um servidor SFTP/FTP.
- Exporta dados de uma tabela de HBase para um servidor SFTP/FTP.
- Exporta dados de uma tabela de Phoenix para um servidor SFTP/FTP.
- Importa dados de um banco de dados relacional para uma tabela de HBase.
- Importa dados de um banco de dados relacional para uma tabela de Phoenix.
- Importa dados de um banco de dados relacional para uma tabela de Hive.
- Exporta dados de uma tabela de HBase para um banco de dados relacional.
- Exporta dados de uma tabela de Phoenix para um banco de dados relacional.
- Importa dados de uma tabela particionada de Oracle para HDFS/OBS.
- Importa dados de uma tabela particionada de Oracle para uma tabela de HBase.
- Importa dados de uma tabela particionada de Oracle para uma tabela de Phoenix.
- Importa dados de uma tabela particionada de Oracle para uma tabela de Hive.
- Exporta dados do HDFS/OBS para uma tabela particionada de Oracle.
- Exporta dados do HBase para uma tabela particionada de Oracle.
- Exporta dados de uma tabela de Phoenix para uma tabela particionada de Oracle.
- Importa dados do HDFS para uma tabela de HBase, uma tabela de Phoenix e uma tabela de Hive no mesmo cluster.
- Exporta dados de uma tabela de HBase e de uma tabela de Phoenix para HDFS/OBS no mesmo cluster.
- Importa dados para uma tabela de HBase e uma tabela de Phoenix usando bulkload ou put list.
- Importa todos os tipos de arquivos de um servidor SFTP/FTP para o HDFS. O componente de código aberto Sqoop pode importar apenas arquivos de texto.
- Exporta todos os tipos de arquivos do HDFS/OBS para um servidor SFTP. O componente de código aberto Sqoop pode exportar apenas arquivos de texto e arquivos SequenceFile.
- Suporta conversão de formato de codificação de arquivos durante a importação e exportação de arquivos. Os formatos de codificação suportados incluem todos os formatos suportados pelo Java Development Kit (JDK).
- Mantém a estrutura de diretório original e os nomes de arquivo durante a importação e exportação de arquivos.
- Suporta combinação de arquivos durante a importação e exportação de arquivos. Por exemplo, se um grande número de arquivos deve ser importado, esses arquivos podem ser combinados em n arquivos (n pode ser configurado).
- Suporta filtragem de arquivos durante a importação e exportação de arquivos. As regras de filtragem suportam caracteres curinga e expressões regulares.
- Suporta importação e exportação em lote de tarefas ETL.
- Suporta consulta por página e palavra-chave e gerenciamento de grupo de tarefas ETL.
- Fornece endereços IP flutuantes para componentes externos.
Tópico principal: Loader
Feedback
Esta página foi útil?
Deixar um comentário
Obrigado por seus comentários. Estamos trabalhando para melhorar a documentação.
O sistema está ocupado. Tente novamente mais tarde.