微服务引擎 CSE 

 

微服务引擎(Cloud Service Engine)提供服务注册、服务治理、配置管理等全场景能力;帮助用户实现微服务应用的快速开发和高可用运维。支持多语言、多运行时;支持双栈模式,统一接入和管理Spring Cloud、Apache ServiceComb(JavaChassis/GoChassis)、Dubbo侵入式框架和Istio非侵入式服务网格。

 
 

    分布式程序开发 更多内容
  • Flink DataStream样例程序开发思路

    Flink DataStream样例程序开发思路 场景说明 假定用户有某个网站周末网民网购停留时间的日志文本,基于某些业务要求,要求开发Flink的DataStream应用程序实现如下功能: DataStream应用程序可以在Windows环境和Linux环境中运行。 实时统计总计网购时间超过2个小时的女性网民信息。

    来自:帮助中心

    查看更多 →

  • Flink开启Checkpoint样例程序开发思路

    Flink开启Checkpoint样例程序开发思路 场景说明 假定用户需要每隔1秒钟需要统计4秒中窗口中数据的量,并做到状态严格一致性,即:当应用出现异常并恢复后,各个算子的状态能够处于统一的状态。 数据规划 使用自定义算子每秒钟产生大约10000条数据。 产生的数据为一个四元组

    来自:帮助中心

    查看更多 →

  • Flink DataStream样例程序开发思路

    Flink DataStream样例程序开发思路 场景说明 假定用户有某个网站周末网民网购停留时间的日志文本,基于某些业务要求,要求开发Flink的DataStream应用程序实现如下功能: DataStream应用程序可以在Windows环境和Linux环境中运行。 实时统计总计网购时间超过2个小时的女性网民信息。

    来自:帮助中心

    查看更多 →

  • Flink开启Checkpoint样例程序开发思路

    Flink开启Checkpoint样例程序开发思路 场景说明 假定用户需要每隔1秒钟需要统计4秒中窗口中数据的量,并做到状态严格一致性,即:当应用出现异常并恢复后,各个算子的状态能够处于统一的状态。 数据规划 使用自定义算子每秒钟产生大约10000条数据。 产生的数据为一个四元组

    来自:帮助中心

    查看更多 →

  • 使用LakeFormation Java SDK开发程序

    使用LakeFormation Java SDK开发程序 准备开发程序环境 参考样例 调测程序

    来自:帮助中心

    查看更多 →

  • 准备We码小程序开发环境

    准备We码小程序开发环境 登录CodeArts IDE Online,单击“新建实例”。 如果提示未开通则根据提示跳转至开通页面完成服务开通。 在“基础配置”页面,填写相关信息(其中,“技术栈”项选择“NodeJS”),单击“下一步”。 进入“工程配置”页面,选择we码的模板工程(模板名以wecode开头)。

    来自:帮助中心

    查看更多 →

  • 分布式

    分布式 开发规范 使用JDBC连接数据库 使用ODBC连接数据库 使用libpq连接数据库 使用Psycopg连接数据库 父主题: 使用驱动连接实例

    来自:帮助中心

    查看更多 →

  • 使用FunctionGraph开发程序之后是否需要部署?

    使用FunctionGraph开发程序之后是否需要部署? 用户在本地开发程序之后打包,必须是ZIP包(Java、Node.js、Python、Go)或者JAR包(Java),上传至FunctionGraph即可运行,无需其它的部署操作。 制作ZIP包的时候,单函数入口文件必须在根

    来自:帮助中心

    查看更多 →

  • HBase数据读写样例程序开发思路

    HBase数据读写样例程序开发思路 场景说明 假定用户开发一个应用程序,用于管理企业中的使用A业务的用户信息,如表1所示,A业务操作流程如下: 创建用户信息表。 在用户信息中新增用户的学历、职称等信息。 根据用户编号查询用户姓名和地址。 根据用户姓名进行查询。 查询年龄段在[20-29]之间的用户信息。

    来自:帮助中心

    查看更多 →

  • HBase数据读写样例程序开发思路

    HBase数据读写样例程序开发思路 场景说明 假定用户开发一个应用程序,用于管理企业中的使用A业务的用户信息,如表1所示,A业务操作流程如下: 创建用户信息表。 在用户信息中新增用户的学历、职称等信息。 根据用户编号查询用户姓名和地址。 根据用户姓名进行查询。 查询年龄段在[20-29]之间的用户信息。

    来自:帮助中心

    查看更多 →

  • Flink DataStream样例程序开发思路

    Flink DataStream样例程序开发思路 场景说明 假定用户有某个网站周末网民网购停留时间的日志文本,基于某些业务要求,要求开发Flink的DataStream应用程序实现如下功能: DataStream应用程序可以在Windows环境和Linux环境中运行。 实时统计总计网购时间超过2个小时的女性网民信息。

    来自:帮助中心

    查看更多 →

  • Flink开启Checkpoint样例程序开发思路

    Flink开启Checkpoint样例程序开发思路 场景说明 假定用户需要每隔1秒钟需要统计4秒中窗口中数据的量,并做到状态严格一致性,即:当应用出现异常并恢复后,各个算子的状态能够处于统一的状态。 数据规划 使用自定义算子每秒钟产生大约10000条数据。 产生的数据为一个四元组

    来自:帮助中心

    查看更多 →

  • 分布式

    分布式 Oracle数据库兼容性概述 SQL的基本元素 伪列 操作符 表达式 条件 常见的SQL DDL子句 SQL查询和子查询 PL/SQL语言 系统函数 系统视图 高级包 父主题: 与Oracle兼容性说明

    来自:帮助中心

    查看更多 →

  • 分布式

    分布式 MySQL数据库兼容MySQL模式 父主题: 与MySQL兼容性说明

    来自:帮助中心

    查看更多 →

  • MapReduce统计样例程序开发思路

    MapReduce统计样例程序开发思路 场景说明 假定用户有某个周末网民网购停留时间的日志文本,基于某些业务要求,要求开发MapReduce应用程序实现如下功能: 统计日志文件中本周末网购停留总时间超过2个小时的女性网民信息。 周末两天的日志文件第一列为姓名,第二列为性别,第三列为本次停留时间,单位为分钟,分隔符为“

    来自:帮助中心

    查看更多 →

  • Flink Job Pipeline样例程序开发思路

    Flink Job Pipeline样例程序开发思路 场景说明 本样例中发布者Job自己每秒钟产生10000条数据,然后经由该job的NettySink算子向下游发送。另外两个Job作为订阅者,分别订阅一份数据。 数据规划 发布者Job使用自定义算子每秒钟产生10000条数据。

    来自:帮助中心

    查看更多 →

  • MapReduce统计样例程序开发思路

    MapReduce统计样例程序开发思路 场景说明 假定用户有某个周末网民网购停留时间的日志文本,基于某些业务要求,要求开发MapReduce应用程序实现如下功能: 统计日志文件中本周末网购停留总时间超过2个小时的女性网民信息。 周末两天的日志文件第一列为姓名,第二列为性别,第三列为本次停留时间,单位为分钟,分隔符为“

    来自:帮助中心

    查看更多 →

  • MapReduce统计样例程序开发思路

    MapReduce统计样例程序开发思路 场景说明 假定用户有某个周末网民网购停留时间的日志文本,基于某些业务要求,要求开发MapReduce应用程序实现如下功能: 统计日志文件中本周末网购停留总时间超过2个小时的女性网民信息。 周末两天的日志文件第一列为姓名,第二列为性别,第三列为本次停留时间,单位为分钟,分隔符为“

    来自:帮助中心

    查看更多 →

  • MapReduce统计样例程序开发思路

    MapReduce统计样例程序开发思路 场景说明 假定用户有某个周末网民网购停留时间的日志文本,基于某些业务要求,要求开发MapReduce应用程序实现如下功能: 统计日志文件中本周末网购停留总时间超过2个小时的女性网民信息。 周末两天的日志文件第一列为姓名,第二列为性别,第三列为本次停留时间,单位为分钟,分隔符为“

    来自:帮助中心

    查看更多 →

  • Flink Job Pipeline样例程序开发思路

    Flink Job Pipeline样例程序开发思路 场景说明 本样例中发布者Job自己每秒钟产生10000条数据,然后经由该job的NettySink算子向下游发送。另外两个Job作为订阅者,分别订阅一份数据。 数据规划 发布者Job使用自定义算子每秒钟产生10000条数据 数

    来自:帮助中心

    查看更多 →

  • Spark应用开发规则

    量时的值null,这就是空指针异常的原因。 应用程序结束之前必须调用SparkContext.stop 利用spark做二次开发时,当应用程序结束之前必须调用SparkContext.stop()。 利用Java语言开发时,应用程序结束之前必须调用JavaSparkContext

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了