鲲鹏移植专家服务

提供“一站式”鲲鹏云化服务:咨询与评估、方案设计、应用适配迁移、自研改造、测试验证、性能调优及实战赋能

    apache可移植运行库 更多内容
  • Hive应用开发建议

    HQL编写之隐式类型转换 查询语句使用字段的值做过滤时,不建议通过Hive自身的隐式类型转换来编写HQL。因为隐式类型转换不利于代码的阅读和移植。 建议示例: select * from default.tbl_src where id = 10001; select * from

    来自:帮助中心

    查看更多 →

  • Kafka连接参数说明

    属性名称和值。对于不再需要的属性,单击属性后的“删除”按钮进行删除。 Apache Kafka Apache Kafka连接适用于用户在本地数据中心或E CS 上自建的第三方Kafka,其中本地数据中心的Kafka需通过专线连接。 连接Apache Hadoop上的Kafka数据源时,相关参数如表2所示。

    来自:帮助中心

    查看更多 →

  • 是否支持迁移到Flexus云服务器、专属主机、专属云、鲲鹏云服务器、裸金属服务器?

    时,选择已创建的专属主机。 专属云 支持,迁移前请参考开通专属云,设置目的端时,选择已创建的专属云。 鲲鹏 云服务器 不支持,建议您使用鲲鹏移植专家服务。 裸金属服务器 不支持。 父主题: 产品咨询

    来自:帮助中心

    查看更多 →

  • 使用LZC压缩算法存储HDFS文件

    enceFile压缩。 当前HDFS提供了多种压缩算法,包括Gzip、LZ4、Snappy、Bzip2等。这几种压缩算法的压缩比和解压速度参考如下: 压缩比排序:Bzip2>Gzip>LZ4>Snappy 解压速度排序:LZ4>Snappy>Gzip>Bzip2 使用场景建议:

    来自:帮助中心

    查看更多 →

  • IoT Device SDK Tiny使用指南(C)

    适配了LiteOS/LINUX/MACOS/freertos,可以通过修改SDK来适配其他环境。 若是要在不同模组的情况下,可见SDK开发板移植清单。 父主题: 设备侧SDK

    来自:帮助中心

    查看更多 →

  • 批量写入Hudi表

    分区排序: 配置项 说明 hoodie.bulkinsert.user.defined.partitioner.class 指定分区排序类,自行定义排序方法,具体参考样例代码。 bulk_insert默认字符排序,仅适用于StringType的主键。 父主题: Hudi写操作

    来自:帮助中心

    查看更多 →

  • 执行balance常见问题定位方法

    again later. 问题根因: 通常,HDFS执行Balance操作结束后,会自动释放“/system/balancer.id”文件,再次正常执行Balance。 但在上述场景中,由于第一次的Balance操作是被异常停止的,所以第二次进行Balance操作时,“/system/balancer

    来自:帮助中心

    查看更多 →

  • Hudi Payload操作说明

    Payload的格式是基于Apache Avro的,它使用了Avro的schema来定义数据的结构和类型。Payload可以被序列化和反序列化,以便在Hudi中进行数据的读取和写入。总之,Hudi Payload是Hudi的一个重要组成部分,它提供了一种可靠的、高效的、扩展的方式来管理大规模 数据湖 中的数据变更。

    来自:帮助中心

    查看更多 →

  • Kafka连接参数说明

    属性名称和值。对于不再需要的属性,单击属性后的“删除”按钮进行删除。 Apache Kafka Apache Kafka连接适用于用户在本地数据中心或ECS上自建的第三方Kafka,其中本地数据中心的Kafka需通过专线连接。 连接Apache Hadoop上的Kafka数据源时,相关参数如表2所示。

    来自:帮助中心

    查看更多 →

  • 上云与实施

    上云与实施 上云迁移服务 数据要素集成与实施服务 鲲鹏移植专家服务 鲲鹏测评专家服务 云原生专家服务 微服务专家服务 ROMA集成专业服务 SAP上云专业服务 智能数据专家服务 数据运营专家服务 CSS 专家服务 交通智能体 专家服务 数据仓库 专家服务 云视频交付实施服务 数据库迁移服务

    来自:帮助中心

    查看更多 →

  • 写入操作配置

    write.payload.class 在更新过程中,该类用于提供方法将要更新的记录和更新的记录做合并,该实现插拔,如要实现自己的合并逻辑,自行编写。 org.apache.hudi.common.model.DefaultHoodieRecordPayload hoodie.datasource

    来自:帮助中心

    查看更多 →

  • 收发普通消息

    onException(Throwable throwable) { // 消息发送失败,需要进行重试处理,重新发送这条消息或持久化这条数据进行补偿处理。 System.out.println("send message

    来自:帮助中心

    查看更多 →

  • 迁移HBase索引数据

    168.40.2:9820/user/hbase/t1 手动把导出的数据复制到新集群HDFS中,如上路径:“/user/hbase/t1”。 使用新集群HBase表用户,在新集群中生成HFiles。 hbase org.apache.hadoop.hbase.mapreduce.Import

    来自:帮助中心

    查看更多 →

  • 如何在GeminiDB HBase兼容版实例中创表时设置预分区键

    其中'1111','2222', '3333'替换为其他自定义分区键,多个分区键以英文逗号分隔。 通过Java Code在创表时指定预分区: import java.util.ArrayList; import java.util.List; import org.apache.hadoop.conf

    来自:帮助中心

    查看更多 →

  • 修改索引状态

    索引状态转换图 场景介绍 用户可以使用全局二级索引工具禁用/启用某个索引。 使用方法 在HBase客户端执行以下命令禁用/启用某个索引: hbase org.apache.hadoop.hbase.hindex.global.mapreduce.GlobalTableIndexer

    来自:帮助中心

    查看更多 →

  • 在本地Windows环境中调测HBase应用

    通过HBase日志获取应用程序运行情况。 登录HBase WebUI查看应用程序运行情况。参见“更多信息 > 对外接口 > Web UI ”。 通过HBase shell命令查看应用程序运行情况。参见“更多信息 > 对外接口 > Shell ”。 各样例程序运结果如下: hbase

    来自:帮助中心

    查看更多 →

  • 如何将Java或者Tomcat应用打包成压缩包用于虚拟机部署方式部署组件?

    age-vmapp/application.conf # dosomething probes:此字段记录了健康检查的命令或者是接口,两者同时存在。 health:访问健康检查接口,查看组件状态。 method:查看状态时访问接口使用的HTTP方法。 request:访问的地址。

    来自:帮助中心

    查看更多 →

  • Kudu应用开发常见问题

    Kudu应用开发常见问题 Kudu Java API接口介绍 Kudu Java API接口参考官网描述。 其他Kudu完整和详细的接口可以直接参考官方网站上的描述。 地址: https://kudu.apache.org/apidocs。 父主题: Kudu开发指南(安全模式)

    来自:帮助中心

    查看更多 →

  • Kudu应用开发常见问题

    Kudu应用开发常见问题 Kudu Java API接口介绍 Kudu Java API接口参考官网描述。 其他Kudu完整和详细的接口可以直接参考官方网站上的描述。 地址: https://kudu.apache.org/apidocs。 父主题: Kudu开发指南(普通模式)

    来自:帮助中心

    查看更多 →

  • 自定义函数

    DLI 支持三种自定义函数: UDF:自定义函数,支持一个或多个输入参数,返回一个结果值。 UDTF:自定义表值函数,支持一个或多个输入参数,返回多行多列。 UDAF:自定义聚合函数,将多条记录聚合成一个值。 暂不支持通过python写UDF、UDTF、UDAF自定义函数。 Flink

    来自:帮助中心

    查看更多 →

  • 自定义函数

    DLI支持三种自定义函数: UDF:自定义函数,支持一个或多个输入参数,返回一个结果值。 UDTF:自定义表值函数,支持一个或多个输入参数,返回多行多列。 UDAF:自定义聚合函数,将多条记录聚合成一个值。 暂不支持通过python写UDF、UDTF、UDAF自定义函数。 Flink

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了