虚拟私有云 VPC

虚拟私有云(Virtual Private Cloud)是用户在华为云上申请的隔离的、私密的虚拟网络环境。用户可以自由配置VPC内的IP地址段、子网、安全组等子服务,也可以申请弹性带宽和弹性IP搭建业务系统

 

    虚拟私有云典型场景说明 更多内容
  • 典型场景开发思路

    典型场景开发思路 通过典型场景,您可以快速学习和掌握OpenTSDB的开发过程,并且对关键的接口函数有所了解。 场景说明 假定用户开发一个应用程序,用于记录和查询城市的气象信息,记录数据如下表表1,表2和表3所示。 表1 原始数据 城市 区域 时间 温度 湿度 Shenzhen Longgang

    来自:帮助中心

    查看更多 →

  • 典型使用场景

    典型使用场景 业务 简介 应用场景 语音回呼 语音回呼,用户使用语音回呼软件呼叫另一方,语音通话平台依次呼叫主被叫号码,建立通话,实现主被叫号码间的点对点通信。 企业客户回访,快递派件,企业招聘等。 语音通知 SP调用语音通知API,语音通话平台发起呼叫,给用户播放自定义的语音文

    来自:帮助中心

    查看更多 →

  • 典型场景开发思路

    典型场景开发思路 通过典型场景,您可以快速学习和掌握HBase的开发过程,并且对关键的接口函数有所了解。 场景说明 假定用户开发一个应用程序,用于管理企业中的使用A业务的用户信息,如表1所示,A业务操作流程如下: 创建用户信息表。 在用户信息中新增用户的学历、职称等信息。 根据用户编号查询用户姓名和地址。

    来自:帮助中心

    查看更多 →

  • 典型场景配置实践

    典型场景配置实践 个人用户快速配置ModelArts访问权限 配置ModelArts基本使用权限 给子用户配置开发环境基本使用权限 给子用户配置训练作业基本使用权限 给子用户配置部署上线基本使用权限 管理员和开发者权限分离 查看所有子账号的Notebook实例 使用Cloud Shell登录训练容器

    来自:帮助中心

    查看更多 →

  • 场景说明

    场景说明 您可以将在 云证书管理服务 中已签发的SSL证书、在第三方处购买后上传到云证书管理服务托管的SSL证书一键部署至 华为云产品 CDN、WAF或ELB中,实现网站HTTPS化,提高云产品访问数据的安全性。 SSL证书工作原理 SSL证书是用户在Web 服务器 与浏览器以及客户端之间建

    来自:帮助中心

    查看更多 →

  • 场景说明

    场景说明 边界防护与响应服务、 漏洞扫描服务 、云日志审计服务支持配套USG6000F-C天关。 本文介绍USG6000F-C天关的上线操作,以及边界防护与响应服务、漏洞扫描服务、云日志审计服务所需的配置。 各服务配套的设备如表1所示。 表1 配套设备 服务 配套的天关型号 边界防护与响应服务

    来自:帮助中心

    查看更多 →

  • 场景说明

    场景说明 本文以边缘入侵检测算法的使用为例,介绍如何使用视频智能分析服务(VIAS)。 边缘入侵检测算法提供了区域入侵、过线入侵检测功能。通过分析接入的CAMERA视频数据,当检测到有人或车触发入侵,会上报告警。本示例中,接入的视频数据来自CAMERA,输出识别结果到Webhook。

    来自:帮助中心

    查看更多 →

  • 场景说明

    场景说明 本章节以云上入侵检测算法的使用过程为例介绍如何使用视频智能分析服务(VIAS)。 云上入侵检测算法提供了区域入侵、过线入侵功能,通过分析视频数据,检测到有人或车触发入侵,会上报告警。 本示例中,接入的视频数据来自IVM(用户需要先把视频流接入IVM),输出识别结果到指定的DIS通道。

    来自:帮助中心

    查看更多 →

  • 场景说明

    场景说明 假定用户有某个网站网民周末网购停留时间的日志文本,基于某些业务要求,要求开发Flink的DataStream应用程序实现如下功能: DataStream应用程序可以在Windows环境和Linux环境中运行。 实时统计总计网购时间超过2个小时的女性网民信息。 周末两天的

    来自:帮助中心

    查看更多 →

  • 场景说明

    场景说明 假定某个Flink业务每秒就会收到1个消息记录。 基于某些业务要求,开发的Flink应用程序实现功能:实时输出带有前缀的消息内容。 数据规划 Flink样例工程的数据存储在Kafka组件中。Flink向Kafka组件发送数据(需要有kafka权限用户),并从Kafka组件获取数据。

    来自:帮助中心

    查看更多 →

  • 场景说明

    场景说明 通过典型场景,我们可以快速学习和掌握Oozie的开发过程,并且对关键的接口函数有所了解。 本示例演示了如何通过Java API提交MapReduce作业和查询作业状态,代码示例只涉及了MapReduce作业,其他作业的API调用代码是一样的,只是job配置“job.pr

    来自:帮助中心

    查看更多 →

  • 场景说明

    场景说明 场景说明 假定HBase的table1表存储用户当天消费的金额信息,table2表存储用户历史消费的金额信息。 现table1表有记录key=1,cf:cid=100,表示用户1在当天消费金额为100元。 table2表有记录key=1,cf:cid=1000,表示用户1的历史消息记录金额为1000元。

    来自:帮助中心

    查看更多 →

  • 场景说明

    场景说明 场景说明 在Spark应用中,通过使用StructuredStreaming调用Kafka接口来获取单词记录,然后把单词记录分类统计,得到每个单词记录数。 数据规划 StructuredStreaming样例工程的数据存储在Kafka组件中。向Kafka组件发送数据(需要有Kafka权限用户)。

    来自:帮助中心

    查看更多 →

  • 场景说明

    场景说明 场景说明 数据实时写入HBase,用于点查业务,数据每隔一段时间批量同步到CarbonData表中,用于分析型查询业务。 数据规划 运行样例程序前,需要在Spark客户端的“spark-defaults.conf”配置文件中将配置项“spark.yarn.security

    来自:帮助中心

    查看更多 →

  • 场景说明

    场景说明 场景说明 假定用户有某个周末网民网购停留时间的日志文本,基于某些业务要求,要求开发Spark应用程序实现如下功能: 统计日志文件中本周末网购停留总时间超过2个小时的女性网民信息。 周末两天的日志文件第一列为姓名,第二列为性别,第三列为本次停留时间,单位为分钟,分隔符为“

    来自:帮助中心

    查看更多 →

  • 场景说明

    场景说明 场景说明 假定HBase的table1表存储用户当天消费的金额信息,table2表存储用户历史消费的金额信息。 现table1表有记录key=1,cf:cid=100,表示用户1在当天消费金额为100元。 table2表有记录key=1,cf:cid=1000,表示用户1的历史消息记录金额为1000元。

    来自:帮助中心

    查看更多 →

  • 场景说明

    场景说明 场景说明 假定某个业务Kafka每30秒就会收到5个用户的消费记录。Hbase的table1表存储用户历史消费的金额信息。 现table1表有10条记录,表示有用户名分别为1-10的用户,用户的历史消费金额初始化都是0元。 基于某些业务要求,开发的Spark应用程序实现如下功能:

    来自:帮助中心

    查看更多 →

  • 场景说明

    场景说明 场景说明 在Spark应用中,通过使用StructuredStreaming调用kafka接口来获取单词记录,然后把单词记录分类统计,得到每个单词记录数。 数据规划 StructuredStreaming样例工程的数据存储在Kafka组件中。向Kafka组件发送数据(需要有kafka权限用户)。

    来自:帮助中心

    查看更多 →

  • 场景说明

    场景说明 场景说明 该样例以MapReduce访问HDFS、HBase、Hive为例,介绍如何编写MapReduce作业访问多个服务组件。帮助用户理解认证、配置加载等关键使用方式。 该样例逻辑过程如下: 以HDFS文本文件为输入数据: log1.txt:数据输入文件 YuanJing

    来自:帮助中心

    查看更多 →

  • 场景说明

    场景说明 开发流程 工作流配置文件“workflow.xml”(“coordinator.xml”是对工作流进行调度,“bundle.xml”是对一组coordinator进行管理)与“job.properties”。 如果有实现代码,需要开发对应的jar包,例如Java Act

    来自:帮助中心

    查看更多 →

  • 场景说明

    场景说明 场景说明 假定用户有某个周末网民网购停留时间的日志文本,基于某些业务要求,要求开发Spark应用程序实现如下功能: 统计日志文件中本周末网购停留总时间超过2个小时的女性网民信息。 周末两天的日志文件第一列为姓名,第二列为性别,第三列为本次停留时间,单位为分钟,分隔符为“

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了