云数据库 RDS for MySQL

 

云数据库 RDS for MySQL拥有即开即用、稳定可靠、安全运行、弹性伸缩、轻松管理、经济实用等特点,让您更加专注业务发展。

 
 

    使用SQL 更多内容
  • 从零开始使用Spark SQL

    从零开始使用Spark SQL Spark提供类似SQL的Spark SQL语言操作结构化数据,本章节提供从零开始使用Spark SQL,创建一个名称为src_data的表,然后在src_data表中每行写入一条数据,最后将数据存储在“mrs_20160907”集群中。再使用SQ

    来自:帮助中心

    查看更多 →

  • 使用Python提交Flink SQL作业

    使用Python提交Flink SQL作业 获取样例工程“flink-examples/pyflink-example/pyflink-sql”中的“pyflink-sql.py”和“datagen2kafka.sql”。 参考准备本地应用开发环境将准备好的Python虚拟环境打包,获取“venv

    来自:帮助中心

    查看更多 →

  • 使用Python提交Flink SQL作业

    使用Python提交Flink SQL作业 获取样例工程“flink-examples/pyflink-example/pyflink-sql”中的“pyflink-sql.py”和“datagen2kafka.sql”。 参考准备本地应用开发环境将准备好的Python虚拟环境打包,获取“venv

    来自:帮助中心

    查看更多 →

  • 使用rds_pg_sql_ccl插件

    使用rds_pg_sql_ccl插件 简介 高并发和消耗资源过多的SQL会导致实例不稳定,对此,RDS for PostgreSQL提供了限流能力,是由华为云自研插件rds_pg_sql_ccl实现,其中ccl是concurrent control的缩写,合理地使用SQL限流可以

    来自:帮助中心

    查看更多 →

  • 使用DLI提交SQL作业查询RDS MySQL数据

    和RDS实例的网络,并提交SQL作业跨源访问RDS的表数据。 操作流程 使用 DLI 提交SQL作业查询RDS MySQL数据操作流程如表1所示。 开始进行如下操作前,请务必参考准备工作完成必要操作。 表1 使用DLI提交SQL作业查询RDS MySQL数据的操作流程 操作步骤 说明

    来自:帮助中心

    查看更多 →

  • 使用RDS for MySQL搭建WordPress

    使用RDS for MySQL搭建WordPress WordPress是使用PHP语言开发的博客平台,用户可以在支持PHP和RDS for MySQL数据库的 服务器 上搭建属于自己的网站,本文教您通过华为云虚拟私有云、 弹性云服务器 和RDS for MySQL数据库,轻松几步,在LAMP环境下搭建WordPress。

    来自:帮助中心

    查看更多 →

  • 在Spark SQL作业中使用UDAF

    在Spark SQL作业中使用UDAF 操作场景 DLI支持用户使用Hive UDAF(User Defined Aggregation Function,用户定义聚合函数)可对多行数据产生作用,通常与groupBy联合使用;等同于SQL中常用的SUM(),AVG(),也是聚合函数。

    来自:帮助中心

    查看更多 →

  • 在Spark SQL作业中使用UDTF

    约束限制 在DLI Console上执行UDTF相关操作时,需要使用自建的SQL队列。 不同的IAM用户使用UDTF时,除了创建UDTF函数的用户,其他用户如果需要使用时,需要先进行授权才可使用对应的UDTF函数。授权操作参考如下: 登录DLI管理控制台,选择“ 数据管理 > 程序包管理”页面,选择对应的UDTF

    来自:帮助中心

    查看更多 →

  • 使用Spark SQL作业分析OBS数据

    已创建DLI的SQL队列。创建队列详细介绍请参考创建队列。 注意:创建队列时,队列类型必须要选择为:SQL队列。 前期准备 创建DLI数据库 登录DLI管理控制台,选择“SQL编辑器”,在SQL编辑器中“执行引擎”选择“spark”,“队列”选择已创建的SQL队列。 在SQL编辑器中输

    来自:帮助中心

    查看更多 →

  • GaussDB(DWS) PL/pgSQL使用规则

    集合使用原则: 引用集合中的元素时宜使用FORALL语句,不宜使用FOR循环语句。 动态语句使用原则: 联机系统的交易程序不宜使用动态SQL。 PL/PGSQL中要实现DDL语句和系统控制命令,可使用动态SQL。 宜尽量使用变量绑定。 拼装SQL使用原则: 拼装SQL使用绑定变量。

    来自:帮助中心

    查看更多 →

  • 使用Query Tool执行SQL

    使用Query Tool执行SQL 操作场景 本章节将介绍如何使用Query Tool执行SQL命令。 前提条件 您已成功连接云数据库 RDS for PostgreSQL。 插入数据 在顶部导航栏选择“Tools > Query Tool”,进入SQL命令执行界面,即可执行用户输入的SQL语句。

    来自:帮助中心

    查看更多 →

  • GaussDB(DWS) PL/pgSQL使用规则

    集合使用原则:引用集合中的元素时宜使用FORALL语句,不宜使用FOR循环语句。 动态语句使用原则: 联机系统的交易程序不宜使用动态SQL。 PL/pgSQL中要实现DDL语句和系统控制命令,可使用动态SQL。 尽量使用变量绑定。 拼装SQL使用原则: 拼装SQL使用绑定变量。 拼装SQL语句的条件

    来自:帮助中心

    查看更多 →

  • 使用mysqldump将数据迁移至GaussDB(for MySQL)

    使用mysqldump将数据迁移至 GaussDB (for MySQL) 本章节主要介绍使用mysqldump工具将数据迁移至GaussDB(for MySQL)的步骤。 注意事项 数据库迁移为离线迁移,您需要停止使用源数据库的应用程序。 迁移前准备 准备弹性 云服务器 或可通过公网访问GaussDB(for

    来自:帮助中心

    查看更多 →

  • 使用MAS实现MySQL容灾切换

    MySQL监控实现容灾切换的过程。 使用MySQL监控的步骤如下所示: 步骤一:准备MySQL数据库 步骤二:创建MAS应用 步骤三:创建MySQL监控 步骤四:切换MySQL监控 步骤一:准备MySQL数据库 在使用MySQL监控前,需要提前准备一个多活实例和两个MySQL数据

    来自:帮助中心

    查看更多 →

  • 在Spark SQL作业中使用UDF

    在Spark SQL作业中使用UDF 操作场景 DLI支持用户使用Hive UDF(User Defined Function,用户定义函数)进行数据查询等操作,UDF只对单行数据产生作用,适用于一进一出的场景。 约束限制 在DLI Console上执行UDF相关操作时,需要使用自建的SQL队列。

    来自:帮助中心

    查看更多 →

  • 使用spark-sql操作Hudi表

    使用spark-sql操作Hudi表 本章节仅适用于 MRS 3.5.0-LTS及之后版本。 操作场景 本章节主要介绍通过spark-sql使用Hudi功能。 前提条件 在Manager界面创建用户并添加hadoop和hive用户组,主组加入hadoop。 操作步骤 下载并安装Hu

    来自:帮助中心

    查看更多 →

  • 使用定时SQL进行日志加工

    /流中的日志内容通过定时SQL处理后,将存储到目标日志组/日志流中。 统计类型 SQL统计(使用SQL引擎) SQL代码 输入的查询和分析语句,定时SQL运行时,云日志服务将执行该查询和分析语句分析日志。 选择时间范围,对该范围内的日志内容进行SQL查询;单击“预览”可查询预览结果。

    来自:帮助中心

    查看更多 →

  • 使用MRS Spark SQL访问DWS表

    SQL语言,用于对结构化数据进行操作。使用Spark SQL,可以访问不同的数据库,用户可以从这些数据库中提取数据,处理并加载到不同的数据存储中。 本实践演示如何使用MRS Spark SQL访问GaussDB(DWS)数据。 方案架构 Spark的应用运行架构如图1所示,运行流程如下所示:

    来自:帮助中心

    查看更多 →

  • 使用RDS for MySQL搭建Discuz!论坛

    安装Apache、MySQL或PHP等软件。 通过PuTTY登录云服务器,直接获取root权限,可以直接在PuTTY内输入命令。 请输入软件安装命令,此处以PHP为例。 yum install -y httpd php php-fpm php-server php-mysql mysql 结果显示如下,表明安装完成。

    来自:帮助中心

    查看更多 →

  • mysqlbinlog工具使用方法

    mysqlbinlog工具使用方法 本章节介绍mysqlbinlog工具的使用方法,用于本地解析binlog。 binlog的基本组成单元是binlog_event,同时server是以二进制的格式写入binlog文件,所以如果想通过文本格式显示binlog内容,需要mysqlbi

    来自:帮助中心

    查看更多 →

  • 使用JDBC连接DLI并提交SQL作业

    使用JDBC连接DLI并提交SQL作业 操作场景 在Linux或Windows环境下您可以使用JDBC应用程序连接DLI服务端提交作业。 使用JDBC连接DLI提交的作业运行在Spark引擎上。 JDBC版本2.X版本功能重构后,仅支持从DLI作业桶读取查询结果,如需使用该特性需具备以下条件:

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了