put服务 更多内容
  • 服务

    在左侧导航栏中选择“服务”,选择“服务”页签,并选择服务所在命名空间。如需新建命名空间,请参见创建命名空间。 单击右上角“创建服务”,设置集群内访问参数。 Service名称:自定义服务名称,可与工作负载名称保持一致。 访问类型:选择“节点访问 NodePort”。 服务亲和: 集群级

    来自:帮助中心

    查看更多 →

  • 修改写

    // 初始化上传对象属性 obs_put_properties put_properties; init_put_properties(&put_properties); //初始化存储上传数据的结构体 put_buffer_object_callback_data

    来自:帮助中心

    查看更多 →

  • Kafka应用开发建议

    props.put(securityProtocol, kafkaProc.getValues(securityProtocol, "SASL_PLAINTEXT")); // 服务名 props.put(saslKerberosServiceName

    来自:帮助中心

    查看更多 →

  • 加密示例

    // 初始化上传对象属性 obs_put_properties put_properties; init_put_properties(&put_properties); //初始化存储上传数据的结构体 put_buffer_object_callback_data

    来自:帮助中心

    查看更多 →

  • 调用REST接口访问HBase应用安全认证

    调用REST接口访问HBase应用安全认证 场景说明 HBase服务安装时可选部署RESTServer实例,可通过访问HBase REST服务的形式调用HBase相关操作,包括对Namespace、table的操作等。访问HBase REST服务同样需要进行Kerberos认证。 该场景下不需要

    来自:帮助中心

    查看更多 →

  • 调用REST接口访问HBase应用安全认证

    调用REST接口访问HBase应用安全认证 场景说明 HBase服务安装时可选部署RESTServer实例,可通过访问HBase REST服务的形式调用HBase相关操作,包括对Namespace、table的操作等。访问HBase REST服务同样需要进行Kerberos认证。 前提条件 已获

    来自:帮助中心

    查看更多 →

  • 文件上传

    // 初始化上传对象属性 obs_put_properties put_properties; init_put_properties(&put_properties); // 初始化存储上传数据的结构体 put_file_object_callback_data

    来自:帮助中心

    查看更多 →

  • 使用Kafka Token认证

    T或者PLAINTEXT props.put(SECURITY_PROTOCOL, kafkaProc.getValues(SECURITY_PROTOCOL, "SASL_PLAINTEXT")); // 服务名 props.put(SASL_KERBEROS_SERVICE_NAME

    来自:帮助中心

    查看更多 →

  • 服务

    服务 服务基础配置 服务端口配置 负载均衡器基础属性 负载均衡器自动创建配置 负载均衡器配置:共享型elb自动创建配置 负载均衡器配置:独享型elb自动创建配置 负载均衡器配置:监听器配置 负载均衡器配置:后端云服务器组 健康检查配置

    来自:帮助中心

    查看更多 →

  • 上传对象

    // 初始化上传对象属性 obs_put_properties put_properties; init_put_properties(&put_properties); //自定义存储上传数据的结构体, put_buffer_object_callback_data

    来自:帮助中心

    查看更多 →

  • 网站文件托管

    初始化结构体put_properties,可以通过该结构体设置对象属性 obs_put_properties put_properties; init_put_properties(&put_properties); // 设置MIME类型 put_properties

    来自:帮助中心

    查看更多 →

  • 设备管理权限

    设备管理权限 表1 设备管理 权限说明 方法 授权项 依赖其他服务的最小化授权项 注销设备 PUT hilens:device:deleteDevice - 升级设备固件 PUT hilens:device:upgradeDeviceFirmware - 注册设备 POST hi

    来自:帮助中心

    查看更多 →

  • API概览

    /channels 删除频道信息 PUT /v1/{project_id}/ott/channels/endpoints 修改频道打包信息 PUT /v1/{project_id}/ott/channels/input 修改频道入流信息 PUT /v1/{project_id}/

    来自:帮助中心

    查看更多 →

  • SapRfcClient类说明

    SapRfcConfig(); config.put("jco.client.ashost", "10.95.152.107");//服务器 config.put("jco.client.sysnr", "00"); //实例编号 config.put("jco.client.client"

    来自:帮助中心

    查看更多 →

  • 步骤3:发送数据到DIS

    将用户本地数据通过DIS通道不断上传至DIS服务。 目前数据支持存储至DIS和对象存储服务(Object Storage Service,简称OBS)MapReduce服务(MapReduce Service,简称 MRS )、 数据仓库 服务(Data Warehouse Service,简称DWS)、 数据湖探索 (Data

    来自:帮助中心

    查看更多 →

  • 步骤3:发送数据到DIS

    将用户本地数据通过DIS通道不断上传至DIS服务。 目前数据支持存储至DIS和对象存储服务(Object Storage Service,简称OBS)MapReduce服务(MapReduce Service,简称MRS)、数据仓库服务(Data Warehouse Service,简称DWS)、 数据湖 探索(Data

    来自:帮助中心

    查看更多 →

  • Flink消费

    FlinkLtsLogProducer用于将数据写到云日志服务中。 producer只支持Flink at-least-once语义,在发生作业失败的情况下,写入云日志服务中的数据有可能会重复,但是绝对不会丢失。 用法示例如下,我们将模拟产生的字符串写入云日志服务: // 将数据序列化成日志服务的数据格式

    来自:帮助中心

    查看更多 →

  • 使用Kafka Token认证

    T或者PLAINTEXT props.put(SECURITY_PROTOCOL, kafkaProc.getValues(SECURITY_PROTOCOL, "SASL_PLAINTEXT")); // 服务名 props.put(SASL_KERBEROS_SERVICE_NAME

    来自:帮助中心

    查看更多 →

  • 生成上传对象的URL

    // 初始化结构体put_properties obs_put_properties put_properties; init_put_properties(&put_properties); // 回调数据 put_file_object_callback_data

    来自:帮助中心

    查看更多 →

  • Spark同步HBase数据到CarbonData开发思路

    'hbase_table','key','info' put 'hbase_table','1','info:modify_time','2019-11-22 23:28:39' put 'hbase_table','1','info:valid','1' put 'hbase_table','2'

    来自:帮助中心

    查看更多 →

  • WAF权限及授权项

    waf:antiLeakageRule:put √ √ 更新网页防篡改规则 waf:antiTamperRule:put √ √ 更新CC攻击防护规则 waf:ccRuleRule:put √ √ 更新精准访问防护规则 waf:preciseProtectionRule:put √ √ 更新全局白名单规则

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了