云数据库 RDS for MySQL

 

云数据库 RDS for MySQL拥有即开即用、稳定可靠、安全运行、弹性伸缩、轻松管理、经济实用等特点,让您更加专注业务发展。

 
 

    sql在云服务器配置 更多内容
  • 配置Mysql监控项

    当配置为是时,调用链中会采集包含实际参数的sql,如select name from user where id=1。 汇聚分表表名:分表场景下需要使用该配置,将分表汇聚成一个表,如有两个分表UserTable_1、UserTable_2,默认情况sql监控会显示两条sql为select name from UserTable_1、select

    来自:帮助中心

    查看更多 →

  • 配置PostgreSQL/SQLServer连接

    作业运行中禁止修改密码或者更换用户。作业运行过程中修改密码或者更换用户,密码不会立即生效且作业会运行失败。 表1 PostgreSQL/SQLServer连接参数 参数名 说明 取值样例 名称 连接的名称,根据连接的数据源类型,用户可自定义便于记忆、区分的连接名。 sql_link 数据库 服务器 配置为要连接的数据库的IP地址或 域名

    来自:帮助中心

    查看更多 →

  • 在Spark SQL作业中使用UDAF

    。 6 创建 DLI 的UDAF函数 DLI控制台 DLI控制台的SQL作业管理界面创建使用的UDAF函数。 7 验证和使用DLI的UDAF函数 DLI控制台 DLI作业中使用创建的UDAF函数。 操作步骤 新建Maven工程,配置pom文件。以下通过IntelliJ IDEA 2020

    来自:帮助中心

    查看更多 →

  • 在Spark SQL作业中使用UDTF

    。 5 创建DLI的UDTF函数 DLI控制台 DLI控制台的SQL作业管理界面创建使用的UDTF函数。 6 验证和使用DLI的UDTF函数 DLI控制台 DLI作业中使用创建的UDTF函数。 操作步骤 新建Maven工程,配置pom文件。以下通过IntelliJ IDEA 2020

    来自:帮助中心

    查看更多 →

  • 配置Flink SQL Client支持SQL校验功能

    配置Flink SQL Client支持SQL校验功能 本章节适用于 MRS 3.3.0及以后版本。 配置Flink SQL Client支持SQL校验功能 通过SQL Client进行SQL作业开发时,支持进入校验模式校验SQL语法正确性。校验模式下执行SQL命令不会启动Flink

    来自:帮助中心

    查看更多 →

  • 配置PostgreSQL/SQL Server源端参数

    配置PostgreSQL/SQL Server源端参数 作业中源连接为从云数据库 PostgreSQL、云数据库 SQL Server、PostgreSQL、Microsoft SQL Server导出的数据时,源端作业参数如表1所示。 表1 PostgreSQL/SQL Server作为源端时的作业参数

    来自:帮助中心

    查看更多 →

  • 配置MySQL/SQL Server/PostgreSQL目的端参数

    选择自动创表时,迁移过程中可将字符类型的字段长度扩大为原来的3倍,再写入到目的表中。如果源端数据库与目的端数据库字符编码不一样,但目的表字符类型字段与源表一样,迁移数据时,可能会有出现长度不足的错误。 说明: 当启动该功能时,也会导致部分字段消耗用户相应的3倍存储空间。 否 使用非空约束 当选择自动

    来自:帮助中心

    查看更多 →

  • GaussDB NoSQL部署在单个可用区

    GaussDB NoSQL部署单个可用区 规则详情 表1 规则详情 参数 说明 规则名称 gaussdb-nosql-deploy-in-single-az 规则展示名 GaussDB NoSQL部署单个可用区 规则描述 GaussDB NoSQL部署单个可用区中,视为“不合规”。

    来自:帮助中心

    查看更多 →

  • 配置SQL Server容灾

    华为云帮助中心,为用户提供产品简介、价格说明、购买指南、用户指南、API参考、最佳实践、常见问题、视频帮助等技术文档,帮助您快速上手使用华为云服务。

    来自:帮助中心

    查看更多 →

  • 配置弹性云服务器

    配置弹性 云服务器 进入华为云官网,登录华为云账号。 单击左侧服务列表,选择弹性云服务器E CS ,进入弹性云服务器控制台,如下图所示。 图1 云服务器控制台页面 云服务器控制台,选择要配置云服务器,单击名称进入配置页面,如下图所示。 图2 云服务器配置页面 云服务器配置页面,单

    来自:帮助中心

    查看更多 →

  • 配置PostgreSQL/SQL Server源端参数

    配置PostgreSQL/SQL Server源端参数 作业中源连接为从云数据库 PostgreSQL、云数据库 SQL Server、PostgreSQL、Microsoft SQL Server导出的数据时,源端作业参数如表1所示。 表1 PostgreSQL/SQL Server作为源端时的作业参数

    来自:帮助中心

    查看更多 →

  • 在Linux上安装配置Grafana

    Linux上安装配置Grafana 前提条件 一台可访问外网的Ubuntu服务器。如果没有请具备以下条件: 准备一台ECS服务器(建议规格选8U或者以上,镜像选择Ubuntu,建议选择22.04版本,本地存储100G),具体操作请参考《弹性云服务器快速入门》。 购买弹性公网IP

    来自:帮助中心

    查看更多 →

  • 在Windows上安装配置Grafana

    Windows的“服务”中,找到Grafana,将其开启,如果已经开启,则直接进入4。 登录Grafana。 Grafana默认本地的3000端口启动,打开链接http://localhost:3000,出现Grafana的登录界面。首次登录用户名和密码为admin,登录成功后请根据提示修改密码。

    来自:帮助中心

    查看更多 →

  • 配置只读延迟库(PostgreSQL)

    配置只读延迟库(PostgreSQL) 获取wal日志延迟回放状态 中止/恢复wal日志回放 父主题: API v3(推荐)

    来自:帮助中心

    查看更多 →

  • 配置SparkSQL业务用户权限

    步骤: 配置资源权限”的表格中选择“待操作集群的名称 > Hive > Hive读写权限”,勾选所需指定的数据库的“建表”,单击“确定”保存。 Manager角色界面创建一个角色,例如“hive_hbase_submit”,并授予提交任务到Yarn的队列的权限。 “配置资源权限”的表格中选择“待操作集群的名称

    来自:帮助中心

    查看更多 →

  • 配置Spark SQL开启Adaptive Execution特性

    partition数 启用Adaptive Execution特性前,Spark SQL根据spark.sql.shuffle.partitions配置指定shuffle时的partition个数。此种方法一个应用中执行多种SQL查询时缺乏灵活性,无法保证所有场景下的性能合适。开启Adaptive

    来自:帮助中心

    查看更多 →

  • 配置SparkSQL业务用户权限

    步骤: 配置资源权限”的表格中选择“待操作集群的名称 > Hive > Hive读写权限”,勾选所需指定的数据库的“建表”,单击“确定”保存。 Manager角色界面创建一个角色,例如“hive_hbase_submit”,并授予提交任务到Yarn的队列的权限。 “配置资源权限”的表格中选择“待操作集群的名称

    来自:帮助中心

    查看更多 →

  • 配置Spark SQL开启Adaptive Execution特性

    partition数 启用Adaptive Execution特性前,Spark SQL根据spark.sql.shuffle.partitions配置指定shuffle时的partition个数。此种方法一个应用中执行多种SQL查询时缺乏灵活性,无法保证所有场景下的性能更优。开启Adaptive

    来自:帮助中心

    查看更多 →

  • 在Notebook上安装配置Grafana

    打开Grafana页面。 新打开一个浏览器窗口,地址栏输入3中配置的root_url后。出现Grafana登录页面即代表Notebook中安装配置Grafana成功。首次登录用户名和密码为admin,登录成功后请根据提示修改密码。 父主题: 安装配置Grafana

    来自:帮助中心

    查看更多 →

  • 配置MySQL/SQL Server/PostgreSQL目的端参数

    选择自动创表时,迁移过程中可将字符类型的字段长度扩大为原来的3倍,再写入到目的表中。如果源端数据库与目的端数据库字符编码不一样,但目的表字符类型字段与源表一样,迁移数据时,可能会有出现长度不足的错误。 说明: 当启动该功能时,也会导致部分字段消耗用户相应的3倍存储空间。 否 使用非空约束 当选择自动

    来自:帮助中心

    查看更多 →

  • Spark SQL常用配置项说明

    cube spark.sql.distinct.aggregator.enabled false spark.sql.optimizer.dynamicPartitionPruning.enabled true 该配置项用于启用或禁用动态分区修剪。执行SQL查询时,动态分区修剪可

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了