云数据库 RDS for MySQL

 

云数据库 RDS for MySQL拥有即开即用、稳定可靠、安全运行、弹性伸缩、轻松管理、经济实用等特点,让您更加专注业务发展。

 
 

    云数据库的思路 更多内容
  • PyFlink样例程序开发思路

    PyFlink样例程序开发思路 本场景适用于 MRS 3.3.0及以后版本。 假定业务平台需要提交Flink任务到MRS集群,业务平台主要使用语言是Python,提供Python读写Kafka作业和Python提交SQL作业样例。 父主题: PyFlink样例程序

    来自:帮助中心

    查看更多 →

  • HetuEngine样例程序开发思路

    HetuEngine样例程序开发思路 通过典型场景,用户可以快速学习和掌握HetuEngine开发过程,并且对关键接口函数有所了解。 场景说明 假定用户开发一个应用程序,需要对Hive数据源A表和MPPDB数据源B表进行join运算,则可以用HetuEngine来实现Hive数据源数据查询,流程如下:

    来自:帮助中心

    查看更多 →

  • Kafka样例程序开发思路

    开发一个Consumer消费该Topic数据。 性能调优建议 建议预先创建Topic,根据业务需求合理规划Partition数目,Partition数目限制了消费者并发数。 消息key值选取一定是可变,防止由于消息key值不变导致消息分布不均匀。 消费者尽量使用主动提交offset方式,避免重复消费。

    来自:帮助中心

    查看更多 →

  • Oozie样例程序开发思路

    Action;如果是Hive,则需要开发SQL文件。 上传配置文件与jar包(包括依赖jar包)到HDFS,上传路径取决于workflow.xml中oozie.wf.application.path配置路径。 提供三种方式对工作流进行操作,详情请参见Oozie应用开发常见问题。 Shell命令

    来自:帮助中心

    查看更多 →

  • PyFlink样例程序开发思路

    PyFlink样例程序开发思路 本场景适用于MRS 3.3.0及以后版本。 假定业务平台需要提交Flink任务到MRS集群,业务平台主要使用语言是Python,提供Python读写Kafka作业和Python提交SQL作业样例。 父主题: PyFlink样例程序

    来自:帮助中心

    查看更多 →

  • Oozie样例程序开发思路

    Action;如果是Hive,则需要开发SQL文件。 上传配置文件与jar包(包括依赖jar包)到HDFS,上传路径取决于“workflow.xml”中“oozie.wf.application.path”参数配置路径。 提供三种方式对工作流进行操作,详情请参见Oozie应用开发常见问题。

    来自:帮助中心

    查看更多 →

  • Storm样例程序开发思路

    根据上述场景进行功能分解,如表1所示: 表1 在应用中开发功能 序号 步骤 代码示例 1 创建一个Spout用来生成随机文本 请参见创建Storm Spout 2 创建一个Bolt用来将收到随机文本拆分成一个个单词 请参见创建Storm Bolt 3 创建一个Blot用来统计收到各单词次数 请参见创建Storm

    来自:帮助中心

    查看更多 →

  • Impala样例程序开发思路

    查看薪水支付币种为美元雇员联系方式。 查询入职时间为2014年雇员编号、姓名等字段,并将查询结果加载进表employees_info_extended中入职时间为2014分区中。 统计表employees_info中有多少条记录。 查询使用以“cn”结尾邮箱员工信息。 提交

    来自:帮助中心

    查看更多 →

  • Oozie样例程序开发思路

    Action;如果是Hive,则需要开发SQL文件。 上传配置文件与jar包(包括依赖jar包)到HDFS,上传路径取决于“workflow.xml”中“oozie.wf.application.path”参数配置路径。 提供三种方式对工作流进行操作,详情请参见Oozie应用开发常见问题。

    来自:帮助中心

    查看更多 →

  • OpenTSDB样例程序开发思路

    用户可以执行以下数据操作: 获取每天监控数据,通过OpenTSDBput接口将两个组数据点写入数据库中。 对已有的数据使用OpenTSDBquery接口进行数据查询和分析。 功能分解 根据上述业务场景进行功能开发,需要开发功能如表4所示。 表4 在OpenTSDB中开发功能 序号 步骤 代码实现

    来自:帮助中心

    查看更多 →

  • HDFS样例程序开发思路

    调用fSystemcreate接口创建FSDataOutputStream对象:out,使用outwrite方法写入数据。 调用fSystemappend接口创建FSDataOutputStream对象:out,使用outwrite方法追加写入数据。 调用fSystemopen接

    来自:帮助中心

    查看更多 →

  • 提交Storm拓扑失败排查思路

    multiple storm.yaml resources。如下所示: 该错误是由于业务jar包中存在storm.yaml文件,和服务端storm.yaml文件冲突导致。 解决方法参考2。 如果不是上述原因,则请参考提交Storm拓扑失败,提示Failed to check principle

    来自:帮助中心

    查看更多 →

  • 网站无法访问排查思路

    用华为云DNS进行解析,请您到对应DNS服务商处进行问题排查。 如果您刚进行了DNS 服务器 修改,则WHOIS查询结果可能还未更新,请耐心等待,然后再次进行查询。 说明: 修改DNS服务器后,解析生效时间取决于本地DNS缓存时间以及设置TTL值,更多详细内容请参见修改DNS服务器后多久生效?。

    来自:帮助中心

    查看更多 →

  • HDFS样例程序开发思路

    调用fSystemcreate接口创建FSDataOutputStream对象:out,使用outwrite方法写入数据。 调用fSystemappend接口创建FSDataOutputStream对象:out,使用outwrite方法追加写入数据。 调用fSystemopen接

    来自:帮助中心

    查看更多 →

  • HDFS样例程序开发思路

    调用fSystemcreate接口创建FSDataOutputStream对象:out,使用outwrite方法写入数据。 调用fSystemappend接口创建FSDataOutputStream对象:out,使用outwrite方法追加写入数据。 调用fSystemopen接

    来自:帮助中心

    查看更多 →

  • Kafka样例程序开发思路

    开发一个Consumer消费该Topic数据。 性能调优建议 建议预先创建Topic,根据业务需求合理规划Partition数目,Partition数目限制了消费者并发数。 消息key值选取一定是可变,防止由于消息key值不变导致消息分布不均匀。 消费者尽量使用主动提交offset方式,避免重复消费。

    来自:帮助中心

    查看更多 →

  • Oozie样例程序开发思路

    Action;如果是Hive,则需要开发SQL文件。 上传配置文件与jar包(包括依赖jar包)到HDFS,上传路径取决于“workflow.xml”中“oozie.wf.application.path”配置路径。 提供三种方式对工作流进行操作,详情请参见Oozie应用开发常见问题。

    来自:帮助中心

    查看更多 →

  • Kafka样例程序开发思路

    Kafka样例程序开发思路 场景说明 Kafka是一个分布式消息系统,在此系统上可以做一些消息发布和订阅操作,假定用户要开发一个Producer,让其每秒向Kafka集群某Topic发送一条消息,另外,还需要实现一个Consumer,订阅该Topic,实时消费该类消息。 开发思路 使用Linux客户端创建一个Topic。

    来自:帮助中心

    查看更多 →

  • Flink DataStream应用开发思路

    DataStream应用开发思路 假定用户有某个网站网民周末网购停留时间日志文本,基于某些业务要求,要求开发FlinkDataStream应用程序实现如下功能: DataStream应用程序可以在Windows环境和Linux环境中运行。 实时统计总计网购时间超过2个小时女性网民信息。

    来自:帮助中心

    查看更多 →

  • Impala样例程序开发思路

    查看薪水支付币种为美元雇员联系方式。 查询入职时间为2014年雇员编号、姓名等字段,并将查询结果加载进表employees_info_extended中入职时间为2014分区中。 统计表employees_info中有多少条记录。 查询使用以“cn”结尾邮箱员工信息。 提交

    来自:帮助中心

    查看更多 →

  • Kudu应用程序开发思路

    Kudu应用程序开发思路 通过典型场景,可以快速学习和掌握Kudu开发过程,并对关键接口函数有所了解。 开发思路 作为存储引擎,通常情况下会和计算引擎一起协同工作: 首先在计算引擎上(比如Impala)用SQL语句创建表对象; 然后通过Kudu驱动往这个表里写数据; 于此同

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了