云数据库 RDS for MySQL

 

云数据库 RDS for MySQL拥有即开即用、稳定可靠、安全运行、弹性伸缩、轻松管理、经济实用等特点,让您更加专注业务发展。

 
 

    sql游湖 更多内容
  • 数据湖探索简介

    SS等数据源。具体内容请参考《数据探索用户指南》。 Flink跨源支持与多种云服务连通,形成丰富的流生态圈。数据探索的流生态分为云服务生态和开源生态: 云服务生态:数据探索在Flink SQL中支持与其他服务的连通。用户可以直接使用SQL从这些服务中读写数据。如DIS、OB

    来自:帮助中心

    查看更多 →

  • 数据湖探索 DLI

    服务介绍 数据探索 DLI 介绍什么是数据探索 02:47 数据探索DLI产品介绍 功能介绍 数据探索 DLI 熟悉数据探索控制台 03:10 数据探索控制台介绍 操作指导 数据探索 DLI 介绍怎样创建提交SQL作业 07:36 数据探索SQL作业入门指导 数据探索 DLI

    来自:帮助中心

    查看更多 →

  • 数据湖探索 DLI

    描述 访问级别 资源类型(*为必须) 条件键 dli::operateAuth 授予数据探索权限管理权限。 permission_management - - dli::listAuth 授予数据探索权限信息查询权限。 list - - dli:variable:list 授予全局变量列表查询权限。

    来自:帮助中心

    查看更多 →

  • 数据湖建设和持续运营

    数据建设和持续运营 场景描述 数据建设和持续运营,是指数据的初始化建设及后续日常的海量元数据及权限管理,因此用户需要便捷高效的建设和管理方式。 传统方式的弊端 仅支持通过计算引擎(Hive、Spark等)执行SQL实现元数据的定义、修改、查询,对用户有一定的技能要求,缺少提升易用性的可视化界面。

    来自:帮助中心

    查看更多 →

  • 数据湖治理平台设计

    Studio基于数据湖底座,提供数据集成、开发、治理等能力。 DataArts Studio 支持对接数据与数据库云服务作为数据湖底座,例如 MRS Hive、 数据仓库 服务DWS等,也支持对接企业传统数据仓库,例如Oracle、MySQL等。 DataArts Studio包含如下功能组件: 管理中心 提供DataArts

    来自:帮助中心

    查看更多 →

  • DLI如何访问OBS桶中的数据

    创建OBS表。 具体语法请参考《数据探索SQL语法参考》。 添加分区。 具体语法请参考《数据探索SQL语法参考》。 往分区导入OBS桶中的数据。 具体语法请参考《数据探索SQL语法参考》。 查询数据。 具体语法请参考《数据探索SQL语法参考》。 父主题: SQL作业开发类

    来自:帮助中心

    查看更多 →

  • SQL

    SQL SQL兼容性概述 关键字 标识符 DDL DML DCL 其他语句 用户与权限 系统表和系统视图 父主题: MySQL兼容性M-Compatibility模式

    来自:帮助中心

    查看更多 →

  • SQL

    SQLSQL 全量SQL洞察 SQL诊断 父主题: DBA智能运维

    来自:帮助中心

    查看更多 →

  • SQL

    SQLSQL 全量SQL洞察 SQL诊断 SQL限流 父主题: DBA智能运维(旧版)

    来自:帮助中心

    查看更多 →

  • 数据库、数据仓库、数据湖、湖仓一体分别是什么?

    数据库、数据仓库、数据仓一体分别是什么? 如今随着互联网以及物联网等技术的不断发展,越来越多的数据被生产出来,数据管理工具也得到了飞速的发展,大数据相关概念如雨后春笋一般应运而生,如数据库、数据仓库、数据仓一体等。这些概念分别指的是什么,又有着怎样的联系,同时,对应的

    来自:帮助中心

    查看更多 →

  • 概述

    您可以使用本文档提供API对数据探索进行相关操作,包括队列、SQL作业、Flink作业、Spark作业和跨源连接等等。支持的全部操作请参见API概览。 在调用数据探索API之前,请确保已经充分了解数据探索相关概念。详细信息请参见产品介绍。 父主题: API使用前必读

    来自:帮助中心

    查看更多 →

  • java样例代码

    将写好的代码文件生成jar包,上传至DLI中。 控制台操作请参考《数据探索用户指南》。API操作请参考《数据探索API参考》>《上传资源包》。 在Spark作业编辑器中选择对应的Module模块并执行Spark作业。 控制台操作请参考《数据探索用户指南》。API操作请参考《数据探索API参考》>《创建批处理作业》。

    来自:帮助中心

    查看更多 →

  • 支持的数据源(2.9.2.200)

    2.200) 数据集成有两种迁移方式,支持的数据源有所不同: 表/文件迁移:适用于数据入和数据上云场景下,表或文件级别的数据迁移,请参见表/文件迁移支持的数据源类型。 整库迁移:适用于数据入和数据上云场景下,离线或自建数据库整体迁移场景,请参见整库迁移支持的数据源类型。 本文介绍2

    来自:帮助中心

    查看更多 →

  • 支持的数据源(2.9.2.200)

    2.200) 数据集成有两种迁移方式,支持的数据源有所不同: 表/文件迁移:适用于数据入和数据上云场景下,表或文件级别的数据迁移,请参见表/文件迁移支持的数据源类型。 整库迁移:适用于数据入和数据上云场景下,离线或自建数据库整体迁移场景,请参见整库迁移支持的数据源类型。 本文介绍2

    来自:帮助中心

    查看更多 →

  • 支持的数据源(2.9.3.300)

    Server,MySQL,PostgreSQL,Microsoft SQL Server,Oracle NoSQL 表格存储服务 (CloudTable) 搜索:Elasticsearch, 云搜索服务 CSS ) 不支持DWS物理机纳管模式。 数据探索(DLI) 数据仓库:数据仓库服务(DWS),数据探索(DLI),MRS

    来自:帮助中心

    查看更多 →

  • java样例代码

    sparkSession.sql("select * from dli_to_dws").show(); 插入数据后: 提交Spark作业 将写好的代码文件生成jar包,上传至DLI中。 控制台操作请参考《数据探索用户指南》。API操作请参考《数据探索API参考》>《上传资源包》。

    来自:帮助中心

    查看更多 →

  • java样例代码

    Spark作业。 控制台操作请参考《数据探索用户指南》。API操作请参考《数据探索API参考》>《创建批处理作业》。 提交作业时,需要指定Module模块,名称为:sys.datasource.css。 通过控制台提交作业请参考《数据探索用户指南》中的“选择依赖资源参数说明”。

    来自:帮助中心

    查看更多 →

  • 支持的数据源(2.9.2.200)

    2.200) 数据集成有两种迁移方式,支持的数据源有所不同: 表/文件迁移:适用于数据入和数据上云场景下,表或文件级别的数据迁移,请参见表/文件迁移支持的数据源类型。 整库迁移:适用于数据入和数据上云场景下,离线或自建数据库整体迁移场景,请参见整库迁移支持的数据源类型。 本文介绍2

    来自:帮助中心

    查看更多 →

  • java样例代码

    将写好的代码生成jar包,上传至DLI中。 控制台操作请参考《数据探索用户指南》。API操作请参考《数据探索API参考》>《上传资源包》。 在Spark作业编辑器中选择对应的Module模块并执行Spark作业。 控制台操作请参考《数据探索用户指南》。API操作请参考《数据探索API参考》>《创建批处理作业》。

    来自:帮助中心

    查看更多 →

  • MySQL SQL迁移

    MySQL SQL迁移 工具支持从MySQL GaussDB (DWS)的迁移,包括模式、DML、查询、系统函数、PL/SQL等。 在LINUX中执行MySQL迁移 在Linux中执行以下命令开始迁移。用户需指定源数据库、输入和输出文件夹路径和日志路径;应用程序语言类型是SQL

    来自:帮助中心

    查看更多 →

  • SQL

    SQL SQL兼容性概述 关键字 标识符 DDL DML DCL 其他语句 用户与权限 系统表和系统视图 父主题: MySQL兼容性M-Compatibility模式

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了