AI&大数据

高精度,多场景,快响应,AI&大数据助力企业降本增效

 
 

    ModelArts样例列表 更多内容
  • 事件样例

    事件 以下提供 云审计 服务所收集事件的两个页面,并对其中常用的观察点进行了描述,以方便用户更直观的理解事件信息。其他服务所产生的事件可参照以下理解。 详细的字段解释可参考事件结构章节。 创建 云服务器 实例 云硬盘实例 创建云 服务器 实例 { "trace_id":

    来自:帮助中心

    查看更多 →

  • java样例代码

    java代码 前提条件 在 DLI 管理控制台上已完成创建跨源连接。具体操作请参考《 数据湖探索 用户指南》。 CSS 非安全集群 开发说明 代码实现 构造依赖信息,创建SparkSession 导入依赖 涉及到的mvn依赖库 <dependency> <groupId>org

    来自:帮助中心

    查看更多 →

  • Scala样例代码

    SparkHivetoHbase。 代码获取方式请参考获取 MRS 应用开发工程。 代码: /** * 从hive表读取数据,根据key值去hbase表获取相应记录,把两者数据做操作后,更新到hbase表 */ object SparkHivetoHbase { case

    来自:帮助中心

    查看更多 →

  • scala样例代码

    <artifactId>spark-sql_2.11</artifactId> <version>2.3.2</version> </dependency> 通过SQL API访问 未开启Kerberos认证代码 1 2 3 4 5 6 7 8 9 10 11 12

    来自:帮助中心

    查看更多 →

  • SQL查询样例

    SQL查询 本章以ELB日志为进行介绍,对LTS中的ELB原始日志进行查询,具体查询步骤如下。 登录云日志服务控制台。 在左侧导航栏中,选择“日志管理”,单击目标日志组和日志流名称,进入日志详情页面。 系统获取ELB原始日志,在日志搜索页面查看具体日志。 单击右上角,在弹出页面中,选择“云端结构化解析”。

    来自:帮助中心

    查看更多 →

  • Java样例代码

    examples.SparkHbasetoHbase。 代码获取方式请参考获取MRS应用开发工程。 代码: /** * 从table1表读取数据,根据key值去table2表获取相应记录,把两者数据后,更新到table2表 */ public class SparkHbasetoHbase

    来自:帮助中心

    查看更多 →

  • 配置样例工程

    is-sdk-demo”工程的存储位置,勾选样工程,如图1所示。 图1 Import Maven Projects 单击“Finish”完成项目导入。 配置Demo工程。 配置项目编码为“UTF-8”。 在左侧导航栏“Project Explorer”中右键单击所需工程,选择“Properties

    来自:帮助中心

    查看更多 →

  • 下载样例工程

    下载工程 前提条件 确认 表格存储服务 已经安装,并正常运行。 下载工程 下载代码工程。 下载完成后,将代码工程安装包解压到本地,得到一个Eclipse的JAVA工程。如图1所示。 图1 代码工程目录结构 Maven配置 工程中已经包含了hbase的客户端jar包,也可以替换成开源的HBase

    来自:帮助中心

    查看更多 →

  • 计费样例

    计费 计费场景 某游戏公司需要存储名下一款游戏的用户信息、排行榜、装备、游戏状态等数据,于是该游戏公司在2024/04/30 8:00:00在华北-北京四区域创建了一个存储仓exampleprefix-cn-north-4-exampledomainid,并在这个存储仓下创建了一张exampletable

    来自:帮助中心

    查看更多 →

  • 样例代码说明

    代码说明 配置参数 创建Configuration 创建Connection 创建表 删除表 修改表 插入数据 使用Get读取数据 使用Scan读取数据 父主题: 开发HBase冷热分离应用

    来自:帮助中心

    查看更多 →

  • demo样例

    demo License开发的详细方案及demo请参见License控制demo及指导文档。 父主题: License开发指南

    来自:帮助中心

    查看更多 →

  • 计费样例

    计费 计费场景 某用户于2023/03/18 15:30:00购买了一个按需计费的MRS普通版分析集群,规格配置如下: master_node_default_group节点组(简称Master节点组): 节点个数:3 节点规格:c6.2xlarge.2(8vCPUs,16GB)

    来自:帮助中心

    查看更多 →

  • 计费样例

    计费 计费场景 某用户于2023/03/18 15:30:00购买了一台包年包月计费的 裸金属服务器 ,规格配置如下: 规格:physical.s4.xlarge 镜像:Windows Server 2016 标准版 系统盘:通用型SSD,150GiB 数据盘:通用型SSD,100GiB

    来自:帮助中心

    查看更多 →

  • 计费样例

    计费 计费场景 某用户于2023/03/18 10:30:00购买了一台包年包月的s7类型专属主机,购买时长为1个月。于2023/03/18 15:30:00创建了一台按需计费的E CS ,规格配置如下: 规格:s7.large.2(2vCPUs,4GiB) 镜像:Windows

    来自:帮助中心

    查看更多 →

  • 创建FastQC应用样例

    创建FastQC应用 本章节提供了在 EIHealth 平台创建FastQC应用的,帮助您快速熟悉平台的使用方法。 FastQC是一款高通量序列数据的质量检测工具,此基于开源的FastQC软件,将软件制作成镜像,上传至平台,并基于此镜像创建应用。应用创建完成后可以直接使用

    来自:帮助中心

    查看更多 →

  • 自定义样例

    自定义 自定义请求 自定义函数 自定义请求 自定义请求Go: package main import ( "crypto/tls" "encoding/json" "errors" "fmt" "io/ioutil" "net/http" "net/http/cookiejar"

    来自:帮助中心

    查看更多 →

  • 场景样例(Scenario Examples)

    场景(Scenario Examples) 如下为具体场景和逻辑场景。 具体场景(Concrete Scenario) 具体场景: import standard scenario my_scenario: # Road Network map: map

    来自:帮助中心

    查看更多 →

  • pyspark样例代码

    pyspark代码 开发说明 mongo只支持增强型跨源。只能使用包年包月队列。 DDS即文档数据库服务,兼容MongoDB协议。 前提条件 在DLI管理控制台上已完成创建增强跨源连接,并绑定包年/包月队列。具体操作请参考《 数据湖 探索用户指南》。 认证用的password硬编

    来自:帮助中心

    查看更多 →

  • pyspark样例代码

    pyspark代码 前提条件 在DLI管理控制台上已完成创建跨源连接。具体操作请参考《数据湖探索用户指南》。 CSS非安全集群 开发说明 代码实现详解 import相关依赖包 1 2 3 from __future__ import print_function from pyspark

    来自:帮助中心

    查看更多 →

  • Java样例代码

    Java代码 功能介绍 在Spark应用中,通过使用StructuredStreaming调用kafka接口来获取单词记录,然后把单词记录分类统计,得到每个单词记录数。 代码 下面代码片段仅为演示,具体代码参见:com.huawei.bigdata.spark.examples

    来自:帮助中心

    查看更多 →

  • java样例代码

    java代码 开发说明 本只适用于MRS的OpenTSDB。 前提条件 在DLI管理控制台上已完成创建跨源连接并绑定队列。具体操作请参考《数据湖探索用户指南》。 认证用的password硬编码到代码中或者明文存储都有很大的安全风险,建议在配置文件或者环境变量中密文存放,使用时解密,确保安全。

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了