云监控服务 CES

华为云云监控为用户提供一个针对弹性云服务器、带宽等资源的立体化监控平台。

 
 

    管理apache 更多内容
  • 管理集群配置

    获取下载的tar包,此即为 FusionInsight 集群Keytab文件。 具体可参见FusionInsight文档。 Apache集群 Apache HDFS Apache HBase Apache Hive Apache集群场景下,此处仅说明需要哪些配置文件与打包原则,各配置文件的具体获取方式请参见对应版本说明文档。

    来自:帮助中心

    查看更多 →

  • 执行join操作时localtask启动失败

    FAILED: Execution Error, return code 1 from org.apache.hadoop.hive.ql.exec.mr.MapredLocalTask | org.apache.hadoop.hive.ql.session.SessionState$LogHelper

    来自:帮助中心

    查看更多 →

  • 使用Flink Jar连接开启SASL

    import org.apache.flink.api.common.serialization.SimpleStringSchema; import org.apache.flink.api.java.utils.ParameterTool; import org.apache.flink

    来自:帮助中心

    查看更多 →

  • 数据表复制样例代码

    concurrent.TimeUnit; import org.apache.commons.logging.Log; import org.apache.commons.logging.LogFactory; import org.apache.hadoop.conf.Configuration;

    来自:帮助中心

    查看更多 →

  • 多级嵌套子查询以及混合Join的SQL调优

    got 0 at org.apache.spark.memory.MemoryConsumer.allocateArray(MemoryConsumer.java:100) at org.apache.spark.unsafe.map.BytesToBytesMap

    来自:帮助中心

    查看更多 →

  • 批量删除人脸

    com.huawei.trace.http.apache.httpclient.TraceApacheHttpClientBuilder; import org.apache.http.HttpEntity; import org.apache.http.HttpHeaders; import

    来自:帮助中心

    查看更多 →

  • Kudu应用开发简介

    集成。 与Apache Impala的紧密集成,使其成为将HDFS与Apache Parquet结合使用的更好选择。 提供强大而灵活的一致性模型,允许您根据每个请求选择一致性要求,包括用于严格可序列化的一致性的选项。 提供同时运行顺序读写和随机读写的良好性能。 易于管理。 高可用

    来自:帮助中心

    查看更多 →

  • 在Spark SQL作业中使用UDTF

    DLI 的队列区域相同,不可跨区域执行操作。 (可选)可以将Jar包文件上传到DLI的程序包管理中,方便后续统一管理。 登录DLI管理控制台,单击“数据管理 > 程序包管理”。 在“程序包管理”页面,单击右上角的“创建”创建程序包。 在“创建程序包”对话框,配置以下参数。 包类型:选择“JAR”。

    来自:帮助中心

    查看更多 →

  • 自定义函数

    将写好的自定义函数打成JAR包,并上传到OBS上。 在DLI管理控制台的左侧导航栏中,单击数据管理>“程序包管理”,然后单击创建,并使用OBS中的jar包创建相应的程序包。 在DLI管理控制台的左侧导航栏中,单击作业管理>“Flink作业”,在需要编辑作业对应的“操作”列中,单击“编辑”,进入作业编辑页面。

    来自:帮助中心

    查看更多 →

  • Hive任务执行中报栈内存溢出导致任务执行失败

    息如下: FATAL [main] org.apache.hadoop.mapred.YarnChild: Error running child : java.lang.StackOverflowError at org.apache.hive.come.esotericsoftware

    来自:帮助中心

    查看更多 →

  • 使用Spark作业访问DLI元数据

    0-SNAPSHOT.jar”Jar包文件上传到OBS路径下。 将Jar包文件上传到DLI的程序包管理中,方便后续统一管理。 登录DLI管理控制台,单击“数据管理 > 程序包管理”。 在“程序包管理”页面,单击右上角的“创建”创建程序包。 在“创建程序包”对话框,配置以下参数。 包类型:选择“JAR”。

    来自:帮助中心

    查看更多 →

  • 多级嵌套子查询以及混合Join的SQL调优

    got 0 at org.apache.spark.memory.MemoryConsumer.allocateArray(MemoryConsumer.java:100) at org.apache.spark.unsafe.map.BytesToBytesMap

    来自:帮助中心

    查看更多 →

  • 准备本地应用开发环境

    packages: apache-flink Attempting uninstall: apache-flink Found existing installation: apache-flink x.xx.x Uninstalling apache- flink-x

    来自:帮助中心

    查看更多 →

  • java样例代码

    import org.apache.spark.SparkConf; import org.apache.spark.SparkContext; import org.apache.spark.api.java.JavaRDD; import org.apache.spark.api

    来自:帮助中心

    查看更多 →

  • 管理集群配置

    获取下载的tar包,此即为FusionInsight集群Keytab文件。 具体可参见FusionInsight文档。 Apache集群 Apache HDFS Apache HBase Apache Hive Apache集群场景下,此处仅说明需要哪些配置文件与打包原则,各配置文件的具体获取方式请参见对应版本说明文档。

    来自:帮助中心

    查看更多 →

  • 查询所有人脸库

    com.huawei.trace.http.apache.httpclient.TraceApacheHttpClientBuilder; import org.apache.http.HttpEntity; import org.apache.http.HttpHeaders; import

    来自:帮助中心

    查看更多 →

  • 管理

    管理 系统设置 业务设置 用户组管理 学员管理 字段管理、多端数据集成与企业信息 门户设置 登录设置 菜单页面 用户权限 角色权限 父主题: 用户操作指南

    来自:帮助中心

    查看更多 →

  • 管理

    管理 团队管理 套餐管理 License管理 父主题: 运营中心

    来自:帮助中心

    查看更多 →

  • Kudu应用开发简介

    集成。 与Apache Impala的紧密集成,使其成为将HDFS与Apache Parquet结合使用的更好选择。 提供强大而灵活的一致性模型,允许您根据每个请求选择一致性要求,包括用于严格可序列化的一致性的选项。 提供同时运行顺序读写和随机读写的良好性能。 易于管理。 高可用

    来自:帮助中心

    查看更多 →

  • 自定义函数

    将写好的自定义函数打成JAR包,并上传到OBS上。 在DLI管理控制台的左侧导航栏中,单击数据管理>“程序包管理”,然后点击创建,并使用OBS中的jar包创建相应的程序包。 在DLI管理控制台的左侧导航栏中,单击作业管理>“Flink作业”,在需要编辑作业对应的“操作”列中,单击“编辑”,进入作业编辑页面。

    来自:帮助中心

    查看更多 →

  • 查询人脸库

    com.huawei.trace.http.apache.httpclient.TraceApacheHttpClientBuilder; import org.apache.http.HttpEntity; import org.apache.http.HttpHeaders; import

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了