把客户端程序改写到服务器端 更多内容
  • 数据处理

    即可将本地海关编码更新至最新状态 ; 图4 客户端海关参数更新 客户端程序更新:同上,不需要登录 IC卡,在“全部功能”,单击“客户端程序更新”,程序自动检查远程服务是否有程序更新,如果有,会自动下载最新程序 ; 图5 客户端程序更新 然后关掉金二程序, 重新登录时, 系统提示是否更新,单击“更新”,等待更新完成,再次重

    来自:帮助中心

    查看更多 →

  • 创建和管理数据库

    数据库名称遵循SQL标识符的一般规则。当前角色自动成为此新数据库的所有者。 如果一个数据库系统用于承载相互独立的用户和项目,建议它们放在不同的数据库里。 如果项目或者用户是相互关联的,并且可以相互使用对方的资源,则应该它们放在同一个数据库里,但可以规划在不同的模式中。模式只是一个纯粹的逻辑结构,某个模式的访问权限由权限系统模块控制。

    来自:帮助中心

    查看更多 →

  • 资源准备

    / SAP Business One SAP B1软件安装包。 此处需要用户自行上传软件包到相对应区域的OBS桶,并在填写参数时上传后的文件地址填写到“OBS桶URL”参数。上传方式请参考上传软件包。 登录SAP官方地址下载各安装介质: https://support.sap.

    来自:帮助中心

    查看更多 →

  • 创建和管理数据库

    数据库名称遵循SQL标识符的一般规则。当前角色自动成为此新数据库的所有者。 如果一个数据库系统用于承载相互独立的用户和项目,建议它们放在不同的数据库里。 如果项目或者用户是相互关联的,并且可以相互使用对方的资源,则应该它们放在同一个数据库里,但可以规划在不同的模式中。模式只是一个纯粹的逻辑结构,某个模式的访问权限由权限系统模块控制。

    来自:帮助中心

    查看更多 →

  • Spark从HBase读取数据再写入HBase样例程序(Python)

    Spark从HBase读取数据再写入HBase样例程序(Python) 功能介绍 用户可以使用Spark调用HBase接口来操作HBase table1表,然后table1表的数据经过分析后写到HBase table2表中。 代码样例 由于pyspark不提供Hbase相关api,本样例使用Python调用Java的方式实现。

    来自:帮助中心

    查看更多 →

  • 示例-输出

    disp1 = hilens.Display(hilens.RTMP, "rtmp://192.168.1.1/stream") # 视频写到文件,hilens.H264_FILE生成的文件是只包括h264编码的裸视频流文件 # 并且没有限制文件大小,建议仅作为调试使用

    来自:帮助中心

    查看更多 →

  • 在Eclipse提交代码并创建合并请求

    如果您本地的Eclipse安装了EGit,可以本地Git代码仓库代码提交到远程CodeArts Repo,CodeArts Repo当前仅支持Eclipse4.4及以上版本。 如果是首次提交: 在本地计算机建立一个仓库,称本地仓库。 在本地进行Commit,将更新提交到本地仓库。 将 服务器 的更新拉取到本地

    来自:帮助中心

    查看更多 →

  • 使用客户端驱动程序实现故障转移和读写分离

    本章节中故障转移指的是读业务的故障转移。 libpq是PostgreSQL的C应用程序接口,包含一组库函数,允许客户端程序将查询请求发送给PostgreSQL后端服务器并接收这些查询的结果。 JDBC是Java语言中用来规范客户端程序如何访问数据库的应用程序接口,在PostgreSQL中JDBC支持故障转移和负载均衡。

    来自:帮助中心

    查看更多 →

  • Kafka应用开发流程介绍

    发流程是相同的。 开发流程中各个阶段的说明如图1和表1所示。 图1 Kafka客户端程序开发流程 表1 Kafka客户端开发的流程说明 阶段 说明 参考文档 准备开发和运行环境 Kafka的客户端程序当前推荐使用java语言进行开发,可使用IntelliJ IDEA工具开发。 K

    来自:帮助中心

    查看更多 →

  • 创建和管理GaussDB(DWS)数据库

    数据库名称遵循SQL标识符的一般规则。当前用户自动成为此新数据库的所有者。 如果一个数据库系统用于承载相互独立的用户和项目,建议它们放在不同的数据库里。 如果项目或者用户是相互关联的,并且可以相互使用对方的资源,则应该它们放在同一个数据库里,但可以规划在不同的Schema中。 GaussDB (DWS)允许创建的数据库总数目上限为128个。

    来自:帮助中心

    查看更多 →

  • Impala开发规则

    JDBC驱动的加载 客户端程序以JDBC的形式连接Impalad时,需要首先加载Hive的JDBC驱动类org.apache.hive.jdbc.HiveDriver。 所以在客户端程序开始前,必须先使用当前类加载器加载该驱动类。 如果classpath下没有相应的jar包,则客户端程序抛出Class

    来自:帮助中心

    查看更多 →

  • Kafka应用开发流程介绍

    用开发流程是相同的。 开发流程中各个阶段的说明如图1和表1所示。 图1 Kafka客户端程序开发流程 表1 Kafka客户端开发的流程说明 阶段 说明 参考文档 准备开发环境 Kafka的客户端程序当前推荐使用java语言进行开发,可使用IntelliJ IDEA工具开发。 Ka

    来自:帮助中心

    查看更多 →

  • Hive应用开发规则

    Hive应用开发规则 Hive JDBC驱动的加载 客户端程序以JDBC的形式连接HiveServer时,需要首先加载Hive的JDBC驱动类org.apache.hive.jdbc.HiveDriver。 故在客户端程序的开始,必须先使用当前类加载器加载该驱动类。 如果clas

    来自:帮助中心

    查看更多 →

  • 准备Linux客户端环境

    客户端机器的时间与集群的时间要保持一致,时间差要小于5分钟。 操作步骤 下载Storm客户端程序。 登录 MRS Manager系统。 选择“服务管理 > Storm > 下载客户端 > 完整客户端”,下载客户端程序到“远端主机”,即目标E CS 。 登录到客户端下载的目标ECS。 在Linux系统中,使用如下命令解压客户端压缩包。

    来自:帮助中心

    查看更多 →

  • 创建和管理GaussDB(DWS)数据库

    数据库名称遵循SQL标识符的一般规则。当前用户自动成为此新数据库的所有者。 如果一个数据库系统用于承载相互独立的用户和项目,建议它们放在不同的数据库里。 如果项目或者用户是相互关联的,并且可以相互使用对方的资源,则应该它们放在同一个数据库里,但可以规划在不同的Schema中。 GaussDB(DWS)允许创建的数据库总数目上限为128个。

    来自:帮助中心

    查看更多 →

  • NGINX Ingress控制器

    工作原理如图1所示。 Ingress:一组基于 域名 或URL请求转发到指定Service实例的访问规则,是Kubernetes的一种资源对象,Ingress实例被存储在 对象存储服务 etcd中,通过接口服务被实现增、删、、查的操作。 Ingress控制器(Ingress Cont

    来自:帮助中心

    查看更多 →

  • DIS Agent概述

    DIS Agent概述 DIS Agent是 数据接入服务 (DIS)提供的一个客户端程序,具有如下功能: 持续查询文本文件,实时收集增量数据按分隔符解析并上传到DIS通道(通道源数据类型为BLOB/JSON/CSV)。 DIS Agent安装流程如图1所示。 图1 安装流程 父主题:

    来自:帮助中心

    查看更多 →

  • 常见客户端报错及解决方法

    pool”,同时检查业务程序所在ECS有大量CLOSE_WAIT的TCP连接。 报错客户端:Jedis、Lettuce。 可能原因:通常由于客户端程序配置的连接池过小,在业务并发激增时与Redis建立的连接不够用。 解决方法:排查业务代码,设置足够的连接池配置。 问题现象4 问题现象:客户程序连接池超时,报错信息如下:

    来自:帮助中心

    查看更多 →

  • Kafka应用开发流程介绍

    用开发流程是相同的。 开发流程中各个阶段的说明如图1和表1所示。 图1 Kafka客户端程序开发流程 表1 Kafka客户端开发的流程说明 阶段 说明 参考文档 准备开发环境 Kafka的客户端程序当前推荐使用java语言进行开发,可使用IntelliJ IDEA工具开发。 Ka

    来自:帮助中心

    查看更多 →

  • Impala开发规则

    JDBC驱动的加载 客户端程序以JDBC的形式连接Impalad时,需要首先加载Hive的JDBC驱动类org.apache.hive.jdbc.HiveDriver。 所以在客户端程序开始前,必须先使用当前类加载器加载该驱动类。 如果classpath下没有相应的jar包,则客户端程序抛出Class

    来自:帮助中心

    查看更多 →

  • Spark从Hive读取数据再写入HBase样例程序(Scala)

    Spark从Hive读取数据再写入HBase样例程序(Scala) 功能介绍 在Spark应用中,通过使用Spark调用Hive接口来操作hive表,然后Hive表的数据经过分析后写到HBase表。 代码样例 下面代码片段仅为演示,具体代码参见:com.huawei.bigdata.spark.examples

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了