云数据库 RDS for MySQL

 

云数据库 RDS for MySQL拥有即开即用、稳定可靠、安全运行、弹性伸缩、轻松管理、经济实用等特点,让您更加专注业务发展。

 
 

    数据仓库sql开发 更多内容
  • 创建数据仓库GaussDB(DWS)

    创建 数据仓库 GaussDB (DWS) 参见“创建集群”章节创建GaussDB(DWS)数据仓库。创建成功后,记录集群的内网IP。 为确保E CS 与GaussDB(DWS)网络互通,GaussDB(DWS)数据仓库需要与ECS在同一个区域,同一个虚拟私有云和子网下。 表1 DWS规格

    来自:帮助中心

    查看更多 →

  • 数据仓库错误码

    数据仓库错误码 SQL标准错误码说明 第三方库错误码说明 GAUSS-00001 -- GAUSS-00100 GAUSS-00101 -- GAUSS-00200 GAUSS-00201 -- GAUSS-00300 GAUSS-00301 -- GAUSS-00400 GAUSS-00401

    来自:帮助中心

    查看更多 →

  • 使用SQL作业模板开发并提交SQL作业

    使用SQL作业模板开发并提交SQL作业 为了便捷快速地执行SQL操作, DLI 支持定制模板或将正在使用的SQL语句保存为模板。保存模板后,不需编写SQL语句,可通过模板直接执行SQL操作。 当前系统提供了多条标准的TPC-H查询语句模板,您可以按需选择自定义模板或系统模板创建SQL作业。

    来自:帮助中心

    查看更多 →

  • FlinkSQL Kafka表开发规则

    FlinkSQL Kafka表开发规则 Kafka作为sink表时必须指定“topic”配置项 【示例】向Kafka的“test_sink”主题插入一条消息: CREATE TABLE KafkaSink( `user_id` VARCHAR, `user_name`

    来自:帮助中心

    查看更多 →

  • FlinkSQL Kafka表开发建议

    FlinkSQL Kafka表开发建议 Kafka作为source表时应设置限流 本章节适用于 MRS 3.3.0及以后版本。 防止上限超过流量峰值,导致作业异常带来不稳定因素。因此建议设置限流,限流上限应该为业务上线压测的峰值。 【示例】 #如下参数作用在每个并行度 'scan.records-per-second

    来自:帮助中心

    查看更多 →

  • SQL作业开发指南

    SQL作业开发指南 使用Spark SQL作业分析OBS数据 在Spark SQL作业中使用UDF 在Spark SQL作业中使用UDTF 在Spark SQL作业中使用UDAF

    来自:帮助中心

    查看更多 →

  • Flink OpenSource SQL作业开发

    Flink OpenSource SQL作业开发 从Kafka读取数据写入到RDS 从Kafka读取数据写入到DWS 从Kafka读取数据写入到Elasticsearch 从MySQL CDC源表读取数据写入到DWS 从PostgreSQL CDC源表读取数据写入到DWS Fli

    来自:帮助中心

    查看更多 →

  • FlinkSQL Connector开发规范

    FlinkSQL Connector开发规范 FlinkSQL ClickHouse表开发规则 FlinkSQL ClickHouse表开发建议 FlinkSQL Doris数据表开发规则 FlinkSQL Kafka表开发规则 FlinkSQL Kafka表开发建议 FlinkSQL

    来自:帮助中心

    查看更多 →

  • 数据仓库服务 DWS

    数据仓库服务 DWS DWS集群启用KMS加密 DWS集群启用日志转储 DWS集群启用自动快照 DWS集群启用SSL加密连接 DWS集群未绑定弹性公网IP DWS集群运维时间窗检查 DWS集群VPC检查 父主题: 系统内置预设策略

    来自:帮助中心

    查看更多 →

  • 免费体验GaussDB(DWS)

    1.5h SQL on Hadoop 导入MRS-Hive数据源 创建数据仓库集群GaussDB(DWS),并导入MRS的Hive数据,实现跨集群进行大数据融合分析。 1.5h 二次开发 使用Java进行二次开发 使用JDBC驱动连接GaussDB(DWS)进行二次开发,熟悉简单的适配DWS的Java开发用例。

    来自:帮助中心

    查看更多 →

  • 如何访问GaussDB(DWS)

    Connectivity)等标准接口开发应用程序访问GaussDB(DWS)集群中的数据库。 详细内容请参见使用JDBC连接数集群、使用ODBC连接数集群。 psycopg2、PyGreSQL第三方驱动程序 用户在创建好数据仓库集群后使用psycopg2、PyGreSQL第三方库连接到集群,则

    来自:帮助中心

    查看更多 →

  • 华为云职业认证类别介绍

    的高级特性,将具备数据仓库对象创建、管理和查询,数据仓库基础运维,数据仓库的安全配置及管理等能力,胜任数据仓库二次开发数据仓库管理运维岗位。 HCIP-GaussDB(for MySQL) 培养和认证具备基于GaussDB(for MySQL)数据库应用开发及云DBA能力的高级工程师。

    来自:帮助中心

    查看更多 →

  • 什么是数据仓库服务

    什么是数据仓库服务 数据仓库服务GaussDB(DWS)是一种基于华为云基础架构和平台的在线数据分析处理数据库,提供即开即用、可扩展且完全托管的分析型数据库服务,兼容ANSI/ISO标准的SQL92、SQL99和SQL 2003语法,同时兼容PostgreSQL/Oracle/T

    来自:帮助中心

    查看更多 →

  • 开发一个Hive SQL作业

    绑定Agent:已创建的 CDM 集群。 开发Hive SQL脚本 在“数据开发 > 脚本开发”模块中创建一个Hive SQL脚本,脚本名称为“hive_sql”。在编辑器中输入SQL语句,通过SQL语句来实现业务需求。 图1 开发脚本 关键说明: 图1中的脚本开发区为临时调试区,关闭脚本页签后,开发区的内容将

    来自:帮助中心

    查看更多 →

  • Flink Stream SQL Join应用开发思路

    Flink Stream SQL Join应用开发思路 假定某个Flink业务1每秒就会收到1条消息记录,消息记录某个用户的基本信息,包括名字、性别、年龄。另有一个Flink业务2会不定时收到1条消息记录,消息记录该用户的名字、职业信息。 基于某些业务要求,开发的Flink应用程序实

    来自:帮助中心

    查看更多 →

  • 开发批处理单任务SQL作业

    数据开发页面。 在数据开发主界面的左侧导航栏,选择“数据开发 > 作业开发”。 在作业目录中,双击单任务模式作业名称,进入作业开发页面。 在SQL编辑器右侧,单击“基本信息”,可以配置作业的基本信息、属性和高级信息等。单任务SQL作业的基本信息如表1所示,属性如表2所示,高级信息如表3所示。

    来自:帮助中心

    查看更多 →

  • GaussDB(DWS)使用流程

    GaussDB(DWS)使用流程 数据仓库服务是一种基于华为云基础架构和平台的在线数据处理数据库,提供即开即用、可扩展且完全托管的分析型数据库服务。GaussDB(DWS)是基于华为融合数据仓库GaussDB产品的云原生服务,兼容标准ANSI SQL 99和SQL 2003,同时兼容Pos

    来自:帮助中心

    查看更多 →

  • FlinkSQL ClickHouse表开发建议

    FlinkSQL ClickHouse表开发建议 配置多个ClickHouseBalancer实例IP 配置多个ClickHouseBalancer实例IP可以避免ClickHouseBalancer实例单点故障。相关配置(with属性)如下: 'url' = 'jdbc:cli

    来自:帮助中心

    查看更多 →

  • GaussDB(DWS)数据开发SQL入门操作

    GaussDB(DWS)数据开发SQL入门操作 本节主要介绍GaussDB(DWS)数据库的一些SQL基本操作。 创建、查看和删除数据库 使用CREATE DATABASE语句创建数据库。 1 CREATE DATABASE test_db ENCODING 'UTF8' template

    来自:帮助中心

    查看更多 →

  • Spark SQL样例程序开发思路

    Spark SQL样例程序开发思路 场景说明 假定用户有某个周末网民网购停留时间的日志文本,基于某些业务要求,要求开发Spark应用程序实现如下功能: 统计日志文件中本周末网购停留总时间超过2个小时的女性网民信息。 周末两天的日志文件第一列为姓名,第二列为性别,第三列为本次停留时间,单位为分钟,分隔符为“

    来自:帮助中心

    查看更多 →

  • Spark SQL样例程序开发思路

    Spark SQL样例程序开发思路 场景说明 假定用户有某个周末网民网购停留时间的日志文本,基于某些业务要求,要求开发Spark应用程序实现如下功能: 统计日志文件中本周末网购停留总时间超过2个小时的女性网民信息。 周末两天的日志文件第一列为姓名,第二列为性别,第三列为本次停留时间,单位为分钟,分隔符为“

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了