AI&大数据

高精度,多场景,快响应,AI&大数据助力企业降本增效

 
 

    ModelArts样例列表 更多内容
  • SQL查询样例

    SQL查询 本章以ELB日志为进行介绍,对LTS中的ELB原始日志进行查询,具体查询步骤如下。 登录云日志服务控制台。 在左侧导航栏中,选择“日志管理”,单击目标日志组和日志流名称,进入日志详情页面。 系统获取ELB原始日志,在日志搜索页面查看具体日志。 单击右上角,在弹出页面中,选择“云端结构化解析”。

    来自:帮助中心

    查看更多 →

  • Java样例代码

    examples.SparkHbasetoHbase。 代码获取方式请参考获取 MRS 应用开发工程。 代码: /** * 从table1表读取数据,根据key值去table2表获取相应记录,把两者数据后,更新到table2表 */ public class SparkHbasetoHbase

    来自:帮助中心

    查看更多 →

  • 配置样例工程

    is-sdk-demo”工程的存储位置,勾选样工程,如图1所示。 图1 Import Maven Projects 单击“Finish”完成项目导入。 配置Demo工程。 配置项目编码为“UTF-8”。 在左侧导航栏“Project Explorer”中右键单击所需工程,选择“Properties

    来自:帮助中心

    查看更多 →

  • 下载样例工程

    下载工程 前提条件 确认 表格存储服务 已经安装,并正常运行。 下载工程 下载代码工程。 下载完成后,将代码工程安装包解压到本地,得到一个Eclipse的JAVA工程。如图1所示。 图1 代码工程目录结构 Maven配置 工程中已经包含了hbase的客户端jar包,也可以替换成开源的HBase

    来自:帮助中心

    查看更多 →

  • 样例代码说明

    代码说明 配置参数 创建Configuration 创建Connection 创建表 删除表 修改表 插入数据 使用Get读取数据 使用Scan读取数据 父主题: 开发HBase冷热分离应用

    来自:帮助中心

    查看更多 →

  • Java样例代码

    Java代码 功能介绍 在Spark应用中,通过使用StructuredStreaming调用kafka接口来获取单词记录,然后把单词记录分类统计,得到每个单词记录数。 代码 下面代码片段仅为演示,具体代码参见:com.huawei.bigdata.spark.examples

    来自:帮助中心

    查看更多 →

  • java样例代码

    java代码 开发说明 本只适用于MRS的OpenTSDB。 前提条件 在 DLI 管理控制台上已完成创建跨源连接并绑定队列。具体操作请参考《 数据湖探索 用户指南》。 认证用的password硬编码到代码中或者明文存储都有很大的安全风险,建议在配置文件或者环境变量中密文存放,使用时解密,确保安全。

    来自:帮助中心

    查看更多 →

  • Scala样例代码

    Scala代码 功能简介 统计日志文件中本周末网购停留总时间超过2个小时的女性网民信息。 代码 下面代码片段仅为演示,具体代码参见com.huawei.bigdata.spark.examples.FemaleInfoCollection: object CollectFemaleInfo

    来自:帮助中心

    查看更多 →

  • java样例代码

    java代码 开发说明 本只适用于MRS的HBase。 前提条件 在DLI管理控制台上已完成创建跨源连接并绑定队列。具体操作请参考《 数据湖 探索用户指南》。 认证用的password硬编码到代码中或者明文存储都有很大的安全风险,建议在配置文件或者环境变量中密文存放,使用时解密,确保安全。

    来自:帮助中心

    查看更多 →

  • Java样例代码

    examples.SparkOnStreamingToHbase。 代码获取方式请参考获取MRS应用开发工程。 代码: /** * 运行streaming任务,根据value值从hbase table1表读取数据,把两者数据做操作后,更新到hbase table1表 */

    来自:帮助中心

    查看更多 →

  • Java样例代码

    Java代码 功能简介 统计日志文件中本周末网购停留总时间超过2个小时的女性网民信息。 代码 下面代码片段仅为演示,具体代码参见com.huawei.bigdata.spark.examples.FemaleInfoCollection: SparkConf

    来自:帮助中心

    查看更多 →

  • scala样例代码

    scala代码 开发说明 redis只支持增强型跨源。只能使用包年包月队列。 前提条件 在DLI管理控制台上已完成创建增强跨源连接,并绑定包年包月队列。具体操作请参考《数据湖探索用户指南》。 认证用的password硬编码到代码中或者明文存储都有很大的安全风险,建议在配置文件

    来自:帮助中心

    查看更多 →

  • scala样例代码

    scala代码 开发说明 前提条件 在DLI管理控制台上已完成创建跨源连接并绑定队列。具体操作请参考《数据湖探索用户指南》。 认证用的password硬编码到代码中或者明文存储都有很大的安全风险,建议在配置文件或者环境变量中密文存放,使用时解密,确保安全。 构造依赖信息,创建SparkSession

    来自:帮助中心

    查看更多 →

  • scala样例代码

    scala代码 操作场景 本例提供使用Spark作业访问DWS数据源的scala代码。 在DLI管理控制台上已完成创建跨源连接并绑定队列。具体操作请参考《数据湖探索用户指南》。 认证用的password硬编码到代码中或者明文存储都有很大的安全风险,建议在配置文件或者环境变量中密文存放,使用时解密,确保安全。

    来自:帮助中心

    查看更多 →

  • scala样例代码

    scala代码 前提条件 在DLI管理控制台上已完成创建跨源连接。具体操作请参考《数据湖探索用户指南》。 CSS 非安全集群 开发说明 构造依赖信息,创建SparkSession 导入依赖 涉及到的mvn依赖库 1 2 3 4 5 <dependency> <groupId>org

    来自:帮助中心

    查看更多 →

  • Scala样例代码

    examples.SparkHbasetoHbase。 代码获取方式请参考获取MRS应用开发工程。 代码: /** * 从table1表读取数据,根据key值去table2表获取相应记录,把两者数据后,更新到table2表 */ object SparkHbasetoHbase

    来自:帮助中心

    查看更多 →

  • Java样例代码

    SparkHivetoHbase。 代码获取方式请参考获取MRS应用开发工程。 代码: /** * 从hive表读取数据,根据key值去hbase表获取相应记录,把两者数据做操作后,更新到hbase表 */ public class SparkHivetoHbase { public

    来自:帮助中心

    查看更多 →

  • java样例代码

    java代码 开发说明 mongo只支持增强型跨源。只能使用包年包月队列。 DDS即文档数据库服务,兼容MongoDB协议。 前提条件 在DLI管理控制台上已完成创建增强跨源连接,并绑定包年/包月队列。具体操作请参考《数据湖探索用户指南》。 认证用的password硬编码到代

    来自:帮助中心

    查看更多 →

  • Python样例代码

    Python代码 功能简介 通过连接zookeeper上的对应znode获取到当前主JD BCS erver的IP和PORT,然后使用pyhive连接到这个JDB CS erver,从而实现在JDBCServer-ha模式下,出现主备倒换后不需要修改代码依旧就能直接访问新的主JDBCServer服务。

    来自:帮助中心

    查看更多 →

  • Java样例代码

    Java代码 功能介绍 实时统计连续网购时间超过半个小时的女性网民信息,将统计结果直接打印或者输出写入到Kafka中。 Spark Streaming Write To Print代码 下面代码片段仅为演示,具体代码参见com.huawei.bigdata.spark.examples

    来自:帮助中心

    查看更多 →

  • 配置样例工程

    配置工程 代码请查看:https://github.com/huaweicloud/huaweicloud-sdk-python-dis/tree/master/dis_sdk_python_demo。 操作步骤 huaweicloud-python-sdk-dis已发布到

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了