华为云开发者中心为开发者提供所有云服务的API及API手册、各产品的SDK、可服务的节点区域和各服务的终端节点EndPoint和在使用华为云产品时需要用到的CLI工具、业务工具等的下载及使用说明。

 

    api jar包使用方法 更多内容
  • Spark作业使用咨询

    如何查看Spark内置依赖的版本? DLI 内置依赖是平台默认提供的依赖,用户打包Spark或Flink jar作业jar时,不需要额外上传这些依赖,以免与平台内置依赖冲突。 查看Spark内置依赖的版本请参考内置依赖。 资源包管理中的是否能够下载? 资源仅提供托管服务,不提供下载功能。

    来自:帮助中心

    查看更多 →

  • 开发Hive用户自定义函数

    Privilege权限的角色,并单击“确定”完成权限添加。 在项目中example目录下新建udf,并编写AddDoublesUDF类,将项目打包(例如: AddDoublesUDF.jar),并上传到HDFS指定目录下(如“/user/hive_examples_jars/”)且创

    来自:帮助中心

    查看更多 →

  • 创建CodeArts TestPlan自定义关键字

    中间会出现弹窗让选择module,单击“OK”即可。 通过上述操作会出现libs图标以及对应依赖所在位置,单击“OK”即可完成依赖配置。 开发自定义关键字 创建(至少创建一个层级的)。 创建java类。 类名规则:类名可自定义,建议不超过100个字符,且有具体含义。 创建自定义关键字入口方法。

    来自:帮助中心

    查看更多 →

  • 创建Hive用户自定义函数

    一个普通UDF必须至少实现一个evaluate()方法,evaluate函数支持重载。 开发自定义函数需要在工程中添加“hive-exec-*.jar”依赖,可从Hive服务的安装目录下获取,例如在“${BIGDATA_HOME}/components/ FusionInsight _HD_*

    来自:帮助中心

    查看更多 →

  • Flink Jar作业开发基础样例

    参数 指定类的参数列表,参数之间使用空格分隔。 依赖jar 用户自定义的依赖程序。在选择程序之前需要将对应的Jar包上传至OBS桶中,并在“数据管理>程序包管理”中创建程序类型选择“jar”,具体请参考创建程序。 其他依赖文件 用户自定义的依赖文件。在选择依赖文件

    来自:帮助中心

    查看更多 →

  • 上传jar类型分组资源(废弃)

    模块更新的unix时间戳。 is_async 否 Boolean 是否使用异步方式上传资源。默认值为“false”,表示不使用异步方式。推荐使用异步方式上传资源。 owner 否 String 资源拥有者。 description 否 String 资源模块描述。 module_name

    来自:帮助中心

    查看更多 →

  • 上传JMeter脚本/CSV/第三方jar包/安装包等出错怎么办?

    上传JMeter脚本/ CS V/第三方jar/安装等出错怎么办? 如果上传时出错,请确保是在公网中使用性能测试服务,不是在内网中使用性能测试服务。 父主题: JMeter工程使用

    来自:帮助中心

    查看更多 →

  • 共享交换平台的部署

    web下前端 名为:yunpi-web 将前端包上传至 服务器 /usr/local/web下 修改/yunpi-web/config文件夹下的config.js Vim config.js 修改网关地址 图1 上传 后台服务的启动与配置。 配置jar服务: Jar为:dce-admin

    来自:帮助中心

    查看更多 →

  • 使用SpringBoot构建FunctionGraph HTTP函数

    口号为8000,然后在jar同目录创建bootstrap文件写入执行jar的命令。 本案例使用IntelliJ IDEA,Maven项目。 构建代码 打开Springboot项目,在maven插件处单击package,生成jar。 图1 生成jar 配置工程web端口。

    来自:帮助中心

    查看更多 →

  • mysqlbinlog工具使用方法

    mysqlbinlog工具使用方法 本章节介绍mysqlbinlog工具的使用方法,用于本地解析binlog。 binlog的基本组成单元是binlog_event,同时server是以二进制的格式写入binlog文件,所以如果想通过文本格式显示binlog内容,需要mysqlb

    来自:帮助中心

    查看更多 →

  • Spark任务由于内存不够或提交作业时未添加Jar包,作业卡住

    spark.blacklist.*. 原因分析 内存不足或提交作业时未添加Jar,导致Spark提交的作业任务长时间处于pending状态。 处理步骤 检查提交作业时是否添加Jar。 是,执行2。 否,添加Jar,执行作业正常,操作结束。如果执行作业任务长时间处于pending状态,执行2。

    来自:帮助中心

    查看更多 →

  • MRS集群组件如何管理和使用第三方jar包

    MRS 集群组件如何管理和使用第三方jar MRS集群内部分组件支持使用自定义的第三方jar来满足组件的定制化需求,如果用户应用在使用组件时调用了第三方jar,可放置到每个节点上指定目录中,重启组件后该目录下的jar会被相应的组件程序自动加载。 放置目录为:组件安装节点的“<

    来自:帮助中心

    查看更多 →

  • 使用Flink Jar读写DIS开发指南

    程序包管理”,单击“创建程序”,创建disToDis.properties对应的程序。代码样例请参考disToDis.properties样例。 表2 创建disToDis.properties对应的程序主要参数说明 参数名称 说明 示例 类型 支持的类型如下: JAR:用户jar文件 PyFile:用户Python文件

    来自:帮助中心

    查看更多 →

  • 使用DLI提交Spark Jar作业

    使用DLI提交Spark Jar作业 操作场景 DLI允许用户提交编译为Jar的Spark作业,Jar中包含了Jar作业执行所需的代码和依赖信息,用于在数据查询、数据分析、机器学习等特定的数据处理任务中使用。在提交Spark Jar作业前,将程序包上传至OBS,并将程序与数据和作业参数一起提交以运行作业。

    来自:帮助中心

    查看更多 →

  • 修改资源

    主Jar包所依赖的JAR、properties文件。总的长度不能超过10240个字符。 dependPackages 否 List<DependPackage> 主Jar所依赖的JAR、properties文件。总的长度不能超过10240个字符。同时存在dependFiles和dependPackages时,优先解析该字段。

    来自:帮助中心

    查看更多 →

  • 查询资源详情

    file jar location 是 String 资源文件所在OBS路径,当类型为jar时,location为主Jar所在路径。最多256个字符。示例:obs://myBucket/test.jar dependFiles 否 List<String> 主Jar所依赖的J

    来自:帮助中心

    查看更多 →

  • 创建资源

    file jar location 是 String 资源文件所在OBS路径,当类型为jar时,location为主Jar所在路径。最多1023个字符。示例:obs://myBucket/test.jar dependFiles 否 List<String> 主Jar所依赖的J

    来自:帮助中心

    查看更多 →

  • Spark Jar作业开发指南

    Spark Jar作业开发指南 使用Spark Jar作业读取和查询OBS数据 使用Spark作业访问DLI元数据 使用Spark-submit提交Spark Jar作业 使用Livy提交Spark Jar作业 使用Spark作业跨源访问数据源

    来自:帮助中心

    查看更多 →

  • install构建HBase Jar包失败报错Could not transfer artifact如何处理

    install构建HBase Jar失败报错Could not transfer artifact如何处理 问题 样例代码在进行maven编译构建jar时,Build Failed,提示错误信息:Could not transfer artifact org.apache.c

    来自:帮助中心

    查看更多 →

  • 导入并配置Flink样例工程

    请从Flink服务端安装目录获取相关的依赖。 请从Kafka环境中获取Kafka依赖。 具体依赖请查看样例工程运行依赖参考信息。 样例工程运行依赖参考信息 Flink客户端lib目录、opt目录中都有flink jar,其中lib目录中默认是flink核心jar,opt目录中是对接外部

    来自:帮助中心

    查看更多 →

  • 不同API的套餐包是否可以共享

    不同API的套餐是否可以共享 API与套餐是一一对应关系,只能抵扣对应接口的调用次数。 例如,您购买了身份证识别API套餐,只能在身份证识别接口上使用,不能与其他API共用。 父主题: 计费FAQ

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了