云数据库 RDS for MySQL

 

云数据库 RDS for MySQL拥有即开即用、稳定可靠、安全运行、弹性伸缩、轻松管理、经济实用等特点,让您更加专注业务发展。

 
 

    sql怎么使用 更多内容
  • 使用控制台分析查询SQL

    使用控制台分析查询SQL 使用说明 AstroZero提供了前端调试功能,可以执行部分SQL命令收集信息,便于定位问题。该功能类似MySQL命令行,可以对数据进行操作。目前只支持查询数据,获取在查询过程中的执行计划、重建索引、查看索引、清理缓存和统计表记录数量,查看表中元数据,创

    来自:帮助中心

    查看更多 →

  • 使用Query Tool执行SQL

    使用Query Tool执行SQL 操作场景 本章节将介绍如何使用Query Tool执行SQL命令。 前提条件 您已成功连接云数据库 RDS for PostgreSQL。 插入数据 在顶部导航栏选择“Tools > Query Tool”,进入SQL命令执行界面,即可执行用户输入的SQL语句。

    来自:帮助中心

    查看更多 →

  • 使用gsql元命令导入数据

    使用gsql元命令导入数据 gsql工具提供了元命令\copy进行数据导入。 \copy命令 \copy命令格式以及说明参见表1。 表1 \copy元命令说明 语法 说明 \copy { table [ ( column_list ) ] | ( query ) } { from

    来自:帮助中心

    查看更多 →

  • 使用gsql元命令导入数据

    使用gsql元命令导入数据 gsql工具提供了元命令\copy进行数据导入。 \copy命令 \copy命令格式以及说明参见表1。 表1 \copy元命令说明 语法 说明 \copy { table [ ( column_list ) ] | ( query ) } { from

    来自:帮助中心

    查看更多 →

  • 使用控制台分析查询SQL

    使用控制台分析查询SQL 使用说明 AstroZero提供了前端调试功能,可以执行部分SQL命令收集信息,便于定位问题。该功能类似MySQL命令行,可以对数据进行操作。目前只支持查询数据,获取在查询过程中的执行计划、重建索引、查看索引、清理缓存和统计表记录数量,查看表中元数据,创

    来自:帮助中心

    查看更多 →

  • 从零开始使用Spark SQL

    从零开始使用Spark SQL Spark提供类似SQL的Spark SQL语言操作结构化数据,本章节提供从零开始使用Spark SQL,创建一个名称为src_data的表,然后在src_data表中每行写入一条数据,最后将数据存储在“mrs_20160907”集群中。再使用SQL

    来自:帮助中心

    查看更多 →

  • 使用SQL PATCH进行调优

    目标CN中的SQL PATCH,因此建议在各个CN上尽量都创建对应的SQL PATCH。 CN之间由于Unique SQL ID不同,不共享SQL PATCH,需要用户手动在不同的CN上创建对应的SQL PATCH。 限制在存储过程内的SQL PATCH和全局的SQL PATCH不允许同时存在。

    来自:帮助中心

    查看更多 →

  • 使用SQL PATCH进行调优

    可以看到Unique SQL ID发生变化,其使用的是prepare内的SQL语句生成,此时的Unique SQL ID是可用的。 -- 使用SQL_PATCH gaussdb=# SELECT * FROM dbe_sql_util.create_hint_sql_patch('patch1'

    来自:帮助中心

    查看更多 →

  • 使用MAS实现MySQL容灾切换

    MySQL监控实现容灾切换的过程。 使用MySQL监控的步骤如下所示: 步骤一:准备MySQL数据库 步骤二:创建MAS应用 步骤三:创建MySQL监控 步骤四:切换MySQL监控 步骤一:准备MySQL数据库 在使用MySQL监控前,需要提前准备一个多活实例和两个MySQL数据

    来自:帮助中心

    查看更多 →

  • 在Spark SQL作业中使用UDF

    在Spark SQL作业中使用UDF 操作场景 DLI 支持用户使用Hive UDF(User Defined Function,用户定义函数)进行数据查询等操作,UDF只对单行数据产生作用,适用于一进一出的场景。 约束限制 在DLI Console上执行UDF相关操作时,需要使用自建的SQL队列。

    来自:帮助中心

    查看更多 →

  • 使用MRS Spark SQL访问DWS表

    SQL语言,用于对结构化数据进行操作。使用Spark SQL,可以访问不同的数据库,用户可以从这些数据库中提取数据,处理并加载到不同的数据存储中。 本实践演示如何使用 MRS Spark SQL访问 GaussDB (DWS)数据。 本章节仅适用于MRS 3.x及之后版本。 前提条件 创建MRS集群,包含Spark组件。

    来自:帮助中心

    查看更多 →

  • 使用SQL PATCH进行调优

    可以看到Unique SQL ID发生变化,其使用的是prepare内的SQL语句生成,此时的Unique SQL ID是可用的。 -- 使用SQL_PATCH gaussdb=# SELECT * FROM dbe_sql_util.create_hint_sql_patch('patch1'

    来自:帮助中心

    查看更多 →

  • 使用定时SQL进行日志加工

    /流中的日志内容通过定时SQL处理后,将存储到目标日志组/日志流中。选择源日志组/流的时间范围,对该范围内的日志内容进行SQL查询;单击“预览”可查询预览结果。 统计类型 SQL统计(使用SQL引擎) SQL代码 输入的查询和分析语句。 定时SQL运行时,云日志服务将执行该查询和分析语句分析日志。

    来自:帮助中心

    查看更多 →

  • 使用Spark SQL作业分析OBS数据

    已创建DLI的SQL队列。创建队列详细介绍请参考创建队列。 注意:创建队列时,队列类型必须要选择为:SQL队列。 前期准备 创建DLI数据库 登录DLI管理控制台,选择“SQL编辑器”,在SQL编辑器中“执行引擎”选择“spark”,“队列”选择已创建的SQL队列。 在SQL编辑器中输

    来自:帮助中心

    查看更多 →

  • 在Spark SQL作业中使用UDAF

    在Spark SQL作业中使用UDAF 操作场景 DLI支持用户使用Hive UDAF(User Defined Aggregation Function,用户定义聚合函数)可对多行数据产生作用,通常与groupBy联合使用;等同于SQL中常用的SUM(),AVG(),也是聚合函数。

    来自:帮助中心

    查看更多 →

  • 在Spark SQL作业中使用UDTF

    约束限制 在DLI Console上执行UDTF相关操作时,需要使用自建的SQL队列。 不同的IAM用户使用UDTF时,除了创建UDTF函数的用户,其他用户如果需要使用时,需要先进行授权才可使用对应的UDTF函数。授权操作参考如下: 登录DLI管理控制台,选择“ 数据管理 > 程序包管理”页面,选择对应的UDTF

    来自:帮助中心

    查看更多 →

  • 使用DRS迁移GaussDB(for MySQL)数据

    的“在线迁移”内容。 当前支持MySQL->GaussDB(for MySQL)、Oracle->GaussDB(for MySQL)的迁移。 源库为GaussDB(for MySQL)时,可使用MySQL->GaussDB(for MySQL)进行数据迁移。 云数据库 GaussDB(for

    来自:帮助中心

    查看更多 →

  • 使用SQL PATCH进行调优

    于创建避险SQL PATCH的接口函数,返回执行是否成功。 DBE_SQL_UTIL.drop_sql_patch drop_sql_patch是用于在当前建连的CN上删除SQL PATCH的接口函数,返回执行是否成功。 DBE_SQL_UTIL.enable_sql_patch

    来自:帮助中心

    查看更多 →

  • 使用RDS for MySQL搭建WordPress

    使用RDS for MySQL搭建WordPress WordPress是使用PHP语言开发的博客平台,用户可以在支持PHP和RDS for MySQL数据库的 服务器 上搭建属于自己的网站,本文教您通过华为云虚拟私有云、 弹性云服务器 和RDS for MySQL数据库,轻松几步,在LAMP环境下搭建WordPress。

    来自:帮助中心

    查看更多 →

  • 使用SQL编辑器连接集群

    使用SQL编辑器连接集群 数据源用于用户登录列表管理,目前GaussDB(DWS)集群支持的登录方式有两种,即自定义(“用户名+密码”)和IAM方式登录方式。其中自定义登录是目前主要登录方式,IAM方式登录会在数据库创建一个IAM用户名的用户,再使用Token登录数据库。 IAM方式登录仅8

    来自:帮助中心

    查看更多 →

  • 执行Spark SQL写入Hudi失败怎么办?

    可以尝试的规避方法: 在作业管理界面选择“更多-失败重试”,尝试重新执行Spark SQL。 通过 DataArts Studio 执行Spark SQL,设置执行参数或者调整SQL。 调整Spark切片大小: set spark.sql.files.maxPartitionBytes=xxM;默认值为

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了