开发规则 更多内容
  • Impala开发规则

    Impala开发规则 Hive JDBC驱动的加载 客户端程序以JDBC的形式连接Impalad时,需要首先加载Hive的JDBC驱动类org.apache.hive.jdbc.HiveDriver。 所以在客户端程序开始前,必须先使用当前类加载器加载该驱动类。 如果classp

    来自:帮助中心

    查看更多 →

  • Impala开发规则

    Impala开发规则 Hive JDBC驱动的加载 客户端程序以JDBC的形式连接Impalad时,需要首先加载Hive的JDBC驱动类org.apache.hive.jdbc.HiveDriver。 所以在客户端程序开始前,必须先使用当前类加载器加载该驱动类。 如果classp

    来自:帮助中心

    查看更多 →

  • Flink任务开发规则

    Flink任务开发规则 对有更新操作的数据流进行聚合计算时要注意数据准确性问题 在针对更新数据进行聚合需要选择合适的解决方案,否则聚合结果会是错误的。 例如: Create table t1( id int, partid int, value int );

    来自:帮助中心

    查看更多 →

  • HDFS应用开发规则

    HDFS应用开发规则 HDFS NameNode元数据存储路径 NameNode元数据信息的默认存储路径为“${BIGDATA_DATA_HOME}/namenode/data”,该参数用于确定HDFS文件系统的元数据信息的保存路径。 HDFS需要开启NameNode镜像备份 NameNode的镜像备份参数为“fs

    来自:帮助中心

    查看更多 →

  • Hive应用开发规则

    Hive应用开发规则 Hive JDBC驱动的加载 客户端程序以JDBC的形式连接HiveServer时,需要首先加载Hive的JDBC驱动类org.apache.hive.jdbc.HiveDriver。 故在客户端程序的开始,必须先使用当前类加载器加载该驱动类。 如果clas

    来自:帮助中心

    查看更多 →

  • HBase应用开发规则

    HBase应用开发规则 Configuration实例的创建 该类应该通过调用HBaseConfiguration的create()方法来实例化。否则,将无法正确加载HBase中的相关配置项。 正确示例: //该部分,应该是在类成员变量的声明区域声明 private Configuration

    来自:帮助中心

    查看更多 →

  • Kafka应用开发规则

    Kafka应用开发规则 调用Kafka API(AdminZkClient.createTopic)创建Topic 对于Java开发语言,正确示例: import kafka.zk.AdminZkClient; import kafka.zk.KafkaZkClient; import

    来自:帮助中心

    查看更多 →

  • Impala用开发规则

    Impala用开发规则 创建集群时只需指定一个Catalog和一个StoreStore 如果已经创建了两个Catalog和StateStore,Impalad角色需要指定--catalog_service_host和--state_store_host,Catalog角色需要指定--state_store_host。

    来自:帮助中心

    查看更多 →

  • Spark应用开发规则

    Spark应用开发规则 Spark应用中,需引入Spark的类 对于Java开发语言,正确示例: // 创建SparkContext时所需引入的类。 import org.apache.spark.api.java.JavaSparkContext // RDD操作时引入的类。 import

    来自:帮助中心

    查看更多 →

  • IoTDB应用开发规则

    IoTDB应用开发规则 设置合理数量的存储组 设置合理数量的存储组可以带来性能的提升。既不会因为产生过多的存储文件(夹)导致频繁切换IO降低系统速度(并且会占用大量内存且出现频繁的内存-文件切换),也不会因为过少的存储文件夹(降低了并发度从而)导致写入命令阻塞。 应根据自己的数据

    来自:帮助中心

    查看更多 →

  • Flink SQL逻辑开发规则

    Flink SQL逻辑开发规则 维表lookup join场景维度表个数不超过五个 Hudi维度表都在TM heap中,当维表过多时heap中保存的维表数据过多,TM会不断GC,导致作业性能下降。 【示例】lookup join维表数5个: CREATE TABLE table1(id

    来自:帮助中心

    查看更多 →

  • FlinkSQL Kafka表开发规则

    FlinkSQL Kafka表开发规则 Kafka作为sink表时必须指定“topic”配置项 【示例】向Kafka的“test_sink”主题插入一条消息: CREATE TABLE KafkaSink( `user_id` VARCHAR, `user_name`

    来自:帮助中心

    查看更多 →

  • Mapreduce应用开发规则

    Mapreduce应用开发规则 继承Mapper抽象类实现 在Mapreduce任务的Map阶段,会执行map()及setup()方法。 正确示例: public static class MapperClass extends Mapper<Object, Text, Text

    来自:帮助中心

    查看更多 →

  • FlinkSQL ClickHouse表开发规则

    FlinkSQL ClickHouse表开发规则 提前在ClickHouse中创建表 Flink作业在ClickHouse中找不到对应表会报错,所以需提前在ClickHouse中创建好对应的表。 Flink写ClickHouse不支持删除操作 由于不支持删除操作,Flink无法对

    来自:帮助中心

    查看更多 →

  • FlinkSQL Doris数据表开发规则

    FlinkSQL Doris数据表开发规则 提前在Doris中创建表: Flink作业在Doris中找不到对应表会报错,所以需要提前在Doris中创建好对应的表。 Doris作为Sink表时需开启CheckPoint: Flink作业在触发CheckPoint时才会往Doris表中写数据。

    来自:帮助中心

    查看更多 →

  • FlinkSQL HBase数据表开发规则

    FlinkSQL HBase数据表开发规则 提前在HBase中创建表 Flink作业在HBase中找不到对应表会报错,所以需要提前在HBase中创建好对应的表。 HBase与Flink不在同一集群时只支持Flink和HBase均为普通模式集群的对接 当HBase与Flink为同一

    来自:帮助中心

    查看更多 →

  • AstroZero脚本开发规则及约束限制

    AstroZero脚本开发规则及约束限制 脚本性能检查规则 在AstroZero脚本编辑器中编写脚本代码时,请仔细阅读如下内容,了解脚本性能的检查规则。在AstroZero标准页面和高级页面中,对页面性能进行分析时,会分析页面所引用脚本的性能。如果脚本存在性能问题,界面会通过弹框

    来自:帮助中心

    查看更多 →

  • 创建规则

    铂金版实例ID,如果为空则表示是专业版实例。 in_using 否 Boolean 是否启用规则,默认为true(启用) name 是 String 规则名称,只允许中文字符、英文字符、数字、下划线、中划线,最大长度64 同一个账号中创建的规则名唯一 source 是 String 源端点ID source_resource

    来自:帮助中心

    查看更多 →

  • 启用规则

    启用规则 功能介绍 启用一条规则 调试 您可以在 API Explorer 中调试该接口,支持自动认证鉴权。API Explorer可以自动生成SDK代码示例,并提供SDK代码示例调试功能。 URI POST /v2/{project_id}/routemgr/rules/{rule_id}/start

    来自:帮助中心

    查看更多 →

  • 流转规则

    流转规则 流转规则将所接收的原始告警进行规则匹配后自动分派事件工单,第一时间通知任务处理人。 新建流转规则 支持运维工程师和运维管理员新建流转规则。 进入运维空间后,在左侧导航栏选择“业务配置”->“流转规则”,点击【新建】按钮进入新建界面; 配置流转规则的基本信息,包括规则名称

    来自:帮助中心

    查看更多 →

  • 核验规则

    核验规则 为贯彻落实《中华人民共和国反恐怖主义法》、《中华人民共和国网络安全法》、《互联网信息服务管理办法》、《互联网 域名 管理办法》等法律法规和规章的要求,进一步规范互联网信息服务域名使用,自2018年1月1日起,ICP备案域名按以下原则执行: 域名实名认证。 如您是在华为云购买的域名,请参见华为云域名实名认证。

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了