鲲鹏移植专家服务

提供“一站式”鲲鹏云化服务:咨询与评估、方案设计、应用适配迁移、自研改造、测试验证、性能调优及实战赋能

    apache可移植运行库 更多内容
  • Kafka连接参数说明

    属性名称和值。对于不再需要的属性,单击属性后的“删除”按钮进行删除。 Apache Kafka Apache Kafka连接适用于用户在本地数据中心或E CS 上自建的第三方Kafka,其中本地数据中心的Kafka需通过专线连接。 连接Apache Hadoop上的Kafka数据源时,相关参数如表2所示。

    来自:帮助中心

    查看更多 →

  • 使用LZC压缩算法存储HDFS文件

    enceFile压缩。 当前HDFS提供了多种压缩算法,包括Gzip、LZ4、Snappy、Bzip2等。这几种压缩算法的压缩比和解压速度参考如下: 压缩比排序:Bzip2>Gzip>LZ4>Snappy 解压速度排序:LZ4>Snappy>Gzip>Bzip2 使用场景建议:

    来自:帮助中心

    查看更多 →

  • 是否支持迁移到Flexus云服务器、专属主机、专属云、鲲鹏云服务器、裸金属服务器?

    时,选择已创建的专属主机。 专属云 支持,迁移前请参考开通专属云,设置目的端时,选择已创建的专属云。 鲲鹏 云服务器 不支持,建议您使用鲲鹏移植专家服务。 裸金属服务器 不支持。 父主题: 产品咨询

    来自:帮助中心

    查看更多 →

  • IoT Device SDK Tiny使用指南(C)

    适配了LiteOS/LINUX/MACOS/freertos,可以通过修改SDK来适配其他环境。 若是要在不同模组的情况下,可见SDK开发板移植清单。 父主题: 设备侧SDK

    来自:帮助中心

    查看更多 →

  • 使用LZC压缩算法存储HDFS文件

    enceFile压缩。 当前HDFS提供了多种压缩算法,包括Gzip、LZ4、Snappy、Bzip2等。这几种压缩算法的压缩比和解压速度参考如下: 压缩比排序:Bzip2>Gzip>LZ4>Snappy 解压速度排序:LZ4>Snappy>Gzip>Bzip2 使用场景建议:

    来自:帮助中心

    查看更多 →

  • 使用Flink Jar读写DIS开发指南

    properties的路径,如果放在jar包中,代码会找不到disToDis.properties路径。 操作步骤 创建所需要的DIS通道,具体流程参开通DIS通道。 在DIS控制台,打开“App管理 > 创建App”,填写App名称,App名称对应的是代码中的groupId。 图1 创建App

    来自:帮助中心

    查看更多 →

  • 执行balance常见问题定位方法

    again later. 问题根因: 通常,HDFS执行Balance操作结束后,会自动释放“/system/balancer.id”文件,再次正常执行Balance。 但在上述场景中,由于第一次的Balance操作是被异常停止的,所以第二次进行Balance操作时,“/system/balancer

    来自:帮助中心

    查看更多 →

  • Kafka连接参数说明

    属性名称和值。对于不再需要的属性,单击属性后的“删除”按钮进行删除。 Apache Kafka Apache Kafka连接适用于用户在本地数据中心或ECS上自建的第三方Kafka,其中本地数据中心的Kafka需通过专线连接。 连接Apache Hadoop上的Kafka数据源时,相关参数如表2所示。

    来自:帮助中心

    查看更多 →

  • 收发普通消息

    onException(Throwable throwable) { // 消息发送失败,需要进行重试处理,重新发送这条消息或持久化这条数据进行补偿处理。 System.out.println("send message

    来自:帮助中心

    查看更多 →

  • Apache Log4j2 远程代码执行漏洞(CVE-2021-44228)公告

    Apache Log4j2 远程代码执行漏洞(CVE-2021-44228)公告 漏洞描述 近日,华为云关注到Apache Log4j2存在一处远程代码执行漏洞(CVE-2021-44228),在引入Apache Log4j2处理日志时,会对用户输入的内容进行一些特殊的处理,攻击

    来自:帮助中心

    查看更多 →

  • 上云与实施

    上云与实施 上云迁移服务 数据要素集成与实施服务 鲲鹏移植专家服务 鲲鹏测评专家服务 云原生专家服务 微服务专家服务 ROMA集成专业服务 SAP上云专业服务 智能数据专家服务 数据运营专家服务 CSS 专家服务 交通智能体 专家服务 数据仓库 专家服务 云视频交付实施服务 数据库迁移服务

    来自:帮助中心

    查看更多 →

  • 迁移HBase索引数据

    168.40.2:9820/user/hbase/t1 手动把导出的数据复制到新集群HDFS中,如上路径:“/user/hbase/t1”。 使用新集群HBase表用户,在新集群中生成HFiles。 hbase org.apache.hadoop.hbase.mapreduce.Import

    来自:帮助中心

    查看更多 →

  • 批量写入Hudi表

    分区排序: 配置项 说明 hoodie.bulkinsert.user.defined.partitioner.class 指定分区排序类,自行定义排序方法,具体参考样例代码。 bulk_insert默认字符排序,仅适用于StringType的主键。 父主题: Hudi写操作

    来自:帮助中心

    查看更多 →

  • Hudi Payload操作说明

    Payload的格式是基于Apache Avro的,它使用了Avro的schema来定义数据的结构和类型。Payload可以被序列化和反序列化,以便在Hudi中进行数据的读取和写入。总之,Hudi Payload是Hudi的一个重要组成部分,它提供了一种可靠的、高效的、扩展的方式来管理大规模 数据湖 中的数据变更。

    来自:帮助中心

    查看更多 →

  • 连接数据库

    例。 最后一种形式引用了字符变量,在宿主变量中将介绍如何在SQL语句中引用C语言变量。 连接目标的格式未在SQL标准中说明,因此若要开发移植的应用,可使用上述最后一个例子的方法将连接目标字符串封装在某个变量里。 若连接语句中指定了ip-port,则必须指定username/password,该规则由 GaussDB

    来自:帮助中心

    查看更多 →

  • 连接数据库

    ”。 最后一种形式引用了字符变量,在宿主变量中将介绍如何在SQL语句中引用C语言变量。 连接目标的格式未在SQL标准中说明,因此若要开发移植的应用,可使用上述最后一个例子的方法将连接目标字符串封装在某个变量里。 ecpg兼容性请参见ecpg兼容。 若连接语句中指定了ip-por

    来自:帮助中心

    查看更多 →

  • 本地持久卷概述

    分LV给容器挂载使用。使用本地持久卷作为存储介质的PV的类型可称之为Local PV。 与HostPath卷相比,本地持久卷能够以持久和移植的方式使用,而且本地持久卷的PV会存在节点亲和性配置,其挂载的Pod会自动根据该亲和性配置进行调度,无需手动将Pod调度到特定节点。 挂载方式

    来自:帮助中心

    查看更多 →

  • 连接数据库

    最后一种形式引用了字符变量,在宿主变量章节中将介绍如何在SQL语句中引用C语言变量。 连接目标的格式未在SQL标准中说明,因此若要开发移植的应用,可使用上述最后一个例子的方法将连接目标字符串封装在某个变量里。 若连接语句中指定了ip-port,则必须指定username/password,该规则由GaussDB

    来自:帮助中心

    查看更多 →

  • 批量写入Hudi表

    分区排序: 配置项 说明 hoodie.bulkinsert.user.defined.partitioner.class 指定分区排序类,自行定义排序方法,具体参考样例代码。 bulk_insert默认字符排序,仅适用于StringType的主键。 父主题: Hudi写操作

    来自:帮助中心

    查看更多 →

  • 应用开发问题咨询指引

    默认情况下会在根目录生成access.log,若业务侧使用了log4j2或者logback等日志框架,日志框架的切换参考:https://servicecomb.apache.org/references/java-chassis/zh_CN/build-provider/access-log-configuration

    来自:帮助中心

    查看更多 →

  • 连接数据库

    最后一种形式引用了字符变量,在宿主变量章节中将介绍如何在SQL语句中引用C语言变量。 连接目标的格式未在SQL标准中说明,因此若要开发移植的应用,可使用上述最后一个例子的方法将连接目标字符串封装在某个变量里。 ecpg兼容性请参见ecpg兼容。 若连接语句中指定了ip-por

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了