中软国际数据治理专业服务解决方案实践

中软国际数据治理专业服务解决方案实践

    从大数据到数据科学家 更多内容
  • 使用Loader从SFTP服务器导入数据到HBase

    使用LoaderS FTP服务器 导入数据HBase 操作场景 该任务指导用户使用Loader将数据SFTP 服务器 导入HBase。 前提条件 创建或获取该任务中创建Loader作业的业务用户和密码。 确保用户已授权访问作业执行时操作的HBase表或phoenix表。 获取SF

    来自:帮助中心

    查看更多 →

  • 使用Loader从FTP服务器导入数据到HBase

    使用LoaderFTP服务器导入数据HBase 操作场景 该任务指导用户使用Loader将数据FTP服务器导入HBase。 前提条件 创建或获取该任务中创建Loader作业的业务用户和密码。 获取FTP服务器使用的用户和密码,且该用户具备FTP服务器上源文件的读取权限。如

    来自:帮助中心

    查看更多 →

  • 使用Loader从HBase导出数据到SFTP服务器

    使用LoaderHBase导出数据SFTP服务器 操作场景 该任务指导用户使用Loader将数据HBase导出到SFTP服务器。 前提条件 创建或获取该任务中创建Loader作业的业务用户和密码。 确保用户已授权访问作业执行时操作的HBase表或phoenix表。 获取SF

    来自:帮助中心

    查看更多 →

  • 使用数据工程构建NLP大模型数据集

    使用数据工程构建NLP模型数据集 NLP模型支持接入的数据集类型 盘古NLP模型仅支持接入文本类数据集,该数据集格式要求请参见文本类数据集格式要求。 构建NLP模型所需数据量 使用数据工程构建盘古NLP模型数据集进行模型训练时,所需数据量见表1。 表1 构建NLP模型所需数据量

    来自:帮助中心

    查看更多 →

  • 导出ModelArts数据集中的数据到OBS

    导出ModelArts数据集中的数据OBS 针对数据集中的数据,用户可以选中部分数据或者通过条件筛选出需要的数据,当需要将数据集中的数据存储至OBS用于后续导出使用时,可通过此种方式导出成新的数据集。用户可以通过任务历史查看数据导出的历史记录。 目前只有“图像分类”、“物体检测

    来自:帮助中心

    查看更多 →

  • 从HBase读取数据再写入HBase

    HBase读取数据再写入HBase 场景说明 Java样例代码 Scala样例代码 父主题: 开发Spark应用

    来自:帮助中心

    查看更多 →

  • 从Hive读取数据再写入HBase

    Hive读取数据再写入HBase 场景说明 Java样例代码 Scala样例代码 父主题: 开发Spark应用

    来自:帮助中心

    查看更多 →

  • 从OBS目录导入数据规范说明

    OBS目录导入数据规范说明 导入数据集时,使用存储在OBS的数据时,数据的存储目录以及文件名称需满足ModelArts的规范要求。 当前只有“图像分类”、“物体检测”、“图像分割”、“文本分类”和“声音分类”标注类型支持按标注格式导入。 其中,“表格”类型的数据集,支持OBS

    来自:帮助中心

    查看更多 →

  • 使用Loader从SFTP服务器导入数据到HDFS/OBS

    使用LoaderSFTP服务器导入数据HDFS/OBS 操作场景 该任务指导用户使用Loader将数据SFTP服务器导入HDFS/OBS。 前提条件 创建或获取该任务中创建Loader作业的业务用户和密码。 确保用户已授权访问作业执行时操作的HDFS/OBS目录和数据。 获取S

    来自:帮助中心

    查看更多 →

  • 同步设备配置数据到NetEco

    同步设备配置数据NetEco 当设备配置数据发生变化时,为了使NetEco网管上的数据与设备数据保持一致,可以使用NetEco的同步功能将数据同步NetEco。 前提条件 设备已正常连接。 背景信息 设备创建后,网络连接正常情况下,NetEco会自动设备同步配置数据。此时Ne

    来自:帮助中心

    查看更多 →

  • 发布数据集到空间

    发布数据空间 功能介绍 本接口用于发布数据空间。 调用方法 请参见如何调用API。 URI POST /v1/agents/{agent_id}/datasets/{dataset_id}/publish 表1 路径参数 参数 是否必选 参数类型 描述 agent_id 是

    来自:帮助中心

    查看更多 →

  • 迁移数据到GaussDB(DWS)

    并行拉取方式,性能好,横向扩展。 使用GDS远端服务器导入数据 Servers(即远端服务器) 使用 GaussDB (DWS)提供的GDS工具,利用多DN并行的方式,将数据远端服务器导入GaussDB(DWS)。这种方式导入效率高,适用于大批量数据入库。 MRS 导入数据集群 MRS(HDFS)

    来自:帮助中心

    查看更多 →

  • 加载数据到Hive表中

    加载数据Hive表中 功能介绍 本小节介绍了如何使用HQL向已有的表employees_info中加载数据本节中可以掌握如何本地文件系统、MRS集群中加载数据。以关键字LOCAL区分数据源是否来自本地。 样例代码 -- 本地文件系统/opt/hive_examples_

    来自:帮助中心

    查看更多 →

  • 使用CDM导入数据到OpenSearch

    使用 CDM 导入数据OpenSearch 云搜索服务 支持通过云数据迁移服务CDM的向导式界面,将存储在Oracle数据库或 对象存储服务 OBS中的数据导入Elasticsearch或OpenSearch集群中,数据文件支持JSON格式。 表1 使用CDM导入数据 CSS 服务 数据导入场景

    来自:帮助中心

    查看更多 →

  • 使用Loader从HDFS/OBS导出数据到SFTP服务器

    使用LoaderHDFS/OBS导出数据SFTP服务器 操作场景 该任务指导用户使用Loader将数据HDFS/OBS导出到SFTP服务器。 前提条件 创建或获取该任务中创建Loader作业的业务用户和密码。 确保用户已授权访问作业执行时操作的HDFS/OBS目录和数据。 获取S

    来自:帮助中心

    查看更多 →

  • 下载数据集到OBS

    下载数据OBS 功能介绍 下载数据OBS桶中。 URI URI格式 POST /softcomai/datalake/v1.0/download/obs 参数说明 无。 请求 请求样例 POST https://endpoint/softcomai/datalake/v1

    来自:帮助中心

    查看更多 →

  • 下载数据集到OBS

    下载数据OBS 功能介绍 下载数据OBS桶中。 URI URI格式 POST /softcomai/datalake/v1.0/download/obs 参数说明 无。 请求 请求样例 POST https://endpoint/softcomai/datalake/v1

    来自:帮助中心

    查看更多 →

  • 下载数据集到OBS

    下载数据OBS 当用户订阅或申请订阅了数据集且该订阅申请已审批通过,用户可以手动将数据集下载到OBS。 已成功订阅的数据集在有效期内可以多次下载,无需再发起订阅流程。 数据集订阅成功后,数据集中数据有变化时详细介绍请参见数据服务首页介绍。 同租户下载到OBS不需要审批,跨租户

    来自:帮助中心

    查看更多 →

  • 下载数据集到本地

    下载数据本地 父主题: 下载数据

    来自:帮助中心

    查看更多 →

  • 步骤3:发送数据到DIS

    步骤3:发送数据DIS 功能简介 将用户本地数据通过DIS通道不断上传至DIS服务。 目前数据支持存储至DIS和对象存储服务(Object Storage Service,简称OBS) MapReduce服务 (MapReduce Service,简称MRS)、数据仓库服务(Data

    来自:帮助中心

    查看更多 →

  • 步骤3:发送数据到DIS

    步骤3:发送数据DIS 功能简介 将用户本地数据通过DIS通道不断上传至DIS服务。 目前数据支持存储至DIS和对象存储服务(Object Storage Service,简称OBS)MapReduce服务(MapReduce Service,简称MRS)、数据仓库服务(Data

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了