华为云开发者中心为开发者提供所有云服务的API及API手册、各产品的SDK、可服务的节点区域和各服务的终端节点EndPoint和在使用华为云产品时需要用到的CLI工具、业务工具等的下载及使用说明。

 

    api接口数据加密 更多内容
  • 透明加密

    当前支持数据库级别的透明加密,在创建集群的时候进行加密配置。 了解更多请参见数据加密简介。 TDE加解密原理 透明加密所有加密解密操作均在内存中进行,内存中的数据是明文,磁盘中的数据是密文。数据库的使用方式保持不变,透明加密不会影响数据加工和SQL执行。 图1 TDE加解密原理 父主题: 数据保护技术

    来自:帮助中心

    查看更多 →

  • 加密

    加密。 如果创建SFS Turbo文件系统时,则不需要授权。 可以新创建加密或者不加密的文件系统,无法更改已有文件系统的加密属性。 创建加密文件系统的具体操作请参见创建文件系统。 卸载加密文件系统 如果加密文件系统使用的自定义密钥被执行禁用或计划删除操作,当操作生效后,使用该自定

    来自:帮助中心

    查看更多 →

  • 如何退订数据加密服务?

    如何退订数据加密服务? 数据加密服务不支持退订。 如果您在使用专属加密时,创建专属加密实例失败,您可以单击创建失败的专属加密实例所在行的“删除”,删除专属加密实例,并以工单的形式申请退款。 相关链接 退订规则说明 不支持退订的云服务产品清单 如何提交工单 父主题: 计费FAQ

    来自:帮助中心

    查看更多 →

  • 如何退订数据加密服务?

    如何退订数据加密服务? 数据加密服务不支持退订。 如果您在使用专属加密时,创建专属加密实例失败,您可以单击创建失败的专属加密实例所在行的“删除”,删除专属加密实例,并以工单的形式申请退款。 相关链接 退订规则说明 不支持退订的云服务产品清单 如何提交工单 父主题: 计费类

    来自:帮助中心

    查看更多 →

  • 配置Hadoop数据传输加密

    块的RPC通道的加密属性全部生效。 对RPC的加密方式,有如下三种取值: “authentication”:普通模式默认值,指数据在鉴权后直接传输,不加密。这种方式能保证性能但存在安全风险。 “integrity”:指数据直接传输,即不加密也不鉴权。 为保证数据安全,请谨慎使用这种方式。

    来自:帮助中心

    查看更多 →

  • 配置Kafka数据传输加密

    配置Kafka数据传输加密 操作场景 Kafka客户端和Broker之间的数据传输默认采用明文传输,客户端可能部署在不受信任的网络中,传输的数据可能遭到泄漏和篡改。 操作步骤 默认情况下,组件间的通道是不加密的。用户可以配置如下参数,设置安全通道为加密的。 参数修改入口:在 FusionInsight

    来自:帮助中心

    查看更多 →

  • 配置HDFS数据传输加密

    transfer 设置客户端访问HDFS的通道和HDFS数据传输通道是否加密。HDFS数据传输通道包括DataNode间的数据传输通道,客户端访问DataNode的DT(Data Transfer)通道。设置为“true”表示加密,默认不加密。 说明: 仅当hadoop.rpc.protection设置为privacy时使用。

    来自:帮助中心

    查看更多 →

  • Kafka Java API接口介绍

    Kafka Java API接口介绍 Kafka相关接口同开源社区保持一致,详情请参见http://kafka.apache.org/documentation.html#api。 父主题: Kafka接口介绍

    来自:帮助中心

    查看更多 →

  • Alluxio API接口介绍

    Alluxio API接口介绍 Java API Alluxio接口遵循标准的Alluxio Parent API标准,详情请见https://docs.alluxio.io/os/javadoc/2.0/index.html。 HTTP REST API Master REST

    来自:帮助中心

    查看更多 →

  • 常用OozieAPI接口介绍

    常用Oozie API接口介绍 Oozie Shell接口介绍 Oozie Java接口介绍 Oozie REST接口介绍 父主题: Oozie应用开发常见问题

    来自:帮助中心

    查看更多 →

  • Spark Java API接口介绍

    表连续数据流。 JavaPairDStream:KV DStream的接口,提供reduceByKey和join等操作。 JavaReceiverInputDStream<T>:定义任何从网络接受数据的输入流。 Spark Streaming的常见方法与Spark Core类似,下表罗列了Spark

    来自:帮助中心

    查看更多 →

  • Spark Python API接口介绍

    DStream:是一种代表RDDs连续序列的数据类型,代表连续数据流。 dsteam.PariDStreamFunctions:键值对的DStream,常见的操作如groupByKey和reduceByKey。 对应的Spark Streaming的JAVA API是JavaStreamingC

    来自:帮助中心

    查看更多 →

  • YARN Java API接口介绍

    YARN Java API接口介绍 关于YARN的详细API可以直接参考官方网站上的描述:http://hadoop.apache.org/docs/r3.1.1/api/index.html 常用接口 YARN常用的Java类有如下几个。 ApplicationClientProtocol

    来自:帮助中心

    查看更多 →

  • HBase JDBC API接口介绍

    HBase JDBC API接口介绍 Phoenix实现了大部分的java.sql接口,SQL语法紧跟ANSI SQL标准。 其支持处理函数可参见: http://phoenix.apache.org/language/functions.html 其支持语法可参见: http://phoenix

    来自:帮助中心

    查看更多 →

  • HDFS C API接口介绍

    HDFS C API接口介绍 功能简介 C语言应用开发代码样例中所涉及的文件操作主要包括创建文件、读写文件、追加文件、删除文件。完整和详细的接口请直接参考官网上的描述以了解其使用方法:http://hadoop.apache.org/docs/r3.1.1/hadoop-proj

    来自:帮助中心

    查看更多 →

  • Spark Scala API接口介绍

    writeToKafka() 支持将DStream中的数据批量写入到Kafka。 DStreamKafkaWriter.writeToKafkaBySingle() 支持将DStream中的数据逐条写入到Kafka。 表5 Spark Streaming增强特性接口 方法 说明 DStreamKafkaWriter

    来自:帮助中心

    查看更多 →

  • Flink Scala API接口介绍

    获取用户定义的多个元素的数据,作为输入流数据。 data是多个元素的具体数据。 def fromCollection[T: TypeInformation](data: Seq[T]): DataStream[T] 获取用户定义的集合数据,作为输入流数据。 data可以是集合数据或者可迭代的数据体。

    来自:帮助中心

    查看更多 →

  • HBase JDBC API接口介绍

    HBase JDBC API接口介绍 Phoenix实现了大部分的java.sql接口,SQL语法紧跟ANSI SQL标准。 其支持处理函数可参见: http://phoenix.apache.org/language/functions.html 其支持语法可参见: http://phoenix

    来自:帮助中心

    查看更多 →

  • Spark Python API接口介绍

    DStream:是一种代表RDDs连续序列的数据类型,代表连续数据流。 dsteam.PariDStreamFunctions:键值对的DStream,常见的操作如groupByKey和reduceByKey。 对应的Spark Streaming的JAVA API是JavaStreamingC

    来自:帮助中心

    查看更多 →

  • Spark Scala API接口介绍

    writeToKafka() 支持将DStream中的数据批量写入到Kafka。 DStreamKafkaWriter.writeToKafkaBySingle() 支持将DStream中的数据逐条写入到Kafka。 表5 Spark Streaming增强特性接口 方法 说明 DStreamKafkaWriter

    来自:帮助中心

    查看更多 →

  • HBase Java API接口介绍

    put(Put put) 往该表写入一条数据。 void put(List<Put> puts) 往该表写入一批数据。 void close() 释放该Table对象持有的资源。 表1和表2只列举了部分常用的方法。 父主题: HBase对外接口介绍

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了