云声平台

云声是华为云的建议反馈平台, 对于您反馈的建议,我们会及时评估并向您反馈评估结果与实施计划。

提建议            
 

    AIoT建议汇报 更多内容
  • Flink作业参数建议

    Flink作业参数建议 Hudi表作为Source表时建议设置限流 Hudi表作为Source表,防止上限超过流量峰值,导致作业出现异常带来不稳定因素,因此建议设置限流,限流上限应该为业务上线压测的峰值。 使用时需添加如下参数: 'read.rate.limit' = '1000'

    来自:帮助中心

    查看更多 →

  • OBS性能优化建议

    OBS性能优化建议 OBS按照对象名的UTF-8编码范围来进行分区管理,对系统进行水平扩展与动态负载均衡。如果用户在对象命名规则上使用了顺序前缀(如时间戳或字母顺序),可能导致大量对象的请求访问集中于某个特定分区,造成访问热点。热点分区上的请求速率受限,访问时延上升。 推荐使用随

    来自:帮助中心

    查看更多 →

  • DCS安全使用建议

    为0.0.0.0/0。 建议不使用高危命令,避免攻击者直接对Redis进行致命性破坏。 为避免攻击者直接对Redis进行致命性破坏,如果业务没有使用场景,建议通过命令重命名的方式对其进行禁用, 相关列表请参见默认禁用的命令列表,支持重命名的命令列表。 建议使用非默认端口,避免端口被扫描攻击。

    来自:帮助中心

    查看更多 →

  • 创建CarbonData Table的建议

    创建CarbonData Table的建议 操作场景 本章节根据超过50个测试用例总结得出建议,帮助用户创建拥有更高查询性能的CarbonData表。 表1 CarbonData表中的列 Column name Data type Cardinality Attribution msname

    来自:帮助中心

    查看更多 →

  • SMP相关参数配置建议

    SMP相关参数配置建议 如果要打开SMP自适应功能,要设置query_dop=0,需同步调整以下相关参数值,以获取更佳的dop选择: comm_usable_memory 当系统内存较大时,max_process_memory设置较大,可适当调大该值,建议设置为max_proce

    来自:帮助中心

    查看更多 →

  • 按需转包年包月建议

    按需转包年包月建议 成本中心可分析用户E CS 、EVS、RDS、ELB和SFS Turbo按需资源的使用情况,为用户提供按需资源转包年包月的优化评估,帮助用户发现节省成本的机会。 优化建议说明 成本中心基于用户过去7天、过去30天或过去60天的用量情况,按照如下过程,生成优化评估记录:

    来自:帮助中心

    查看更多 →

  • HBase数据表开发建议

    HBase数据表开发建议 客户端提交作业时通过with属性添加HBase配置信息 Flink客户端提交作业,如SQL client提交,在建表语句中添加如下配置: 表1 Flink作业with属性 配置 说明 'properties.hbase.rpc.protection' =

    来自:帮助中心

    查看更多 →

  • Flink性能调优建议

    Flink性能调优建议 Hudi MOR流表开启log Index特性提升Flink流读Mor表性能 Hudi的Mor表可以通过log index提升读写性能,在Sink和Source表添加属性 'hoodie.log.index.enabled'='true'。 通过调整对应算子并行度提升性能

    来自:帮助中心

    查看更多 →

  • 状态码说明及处理建议

    状态码说明及处理建议 状态码 描述 处理建议 200 请求正常。 - 301 永久移动,请求的资源已被永久的移动到新的URI,返回信息会包括新的URI。 - 302 资源被临时移动。 - 304 所请求的资源未修改, 服务器 返回此状态码时,不会返回任何资源。 - 400 服务器未能处理请求。

    来自:帮助中心

    查看更多 →

  • CCE节点安全配置建议

    CCE节点安全配置建议 及时跟踪处理官网发布的漏洞 节点在新的镜像发布前请参考漏洞公告,完成节点漏洞修复。 节点不暴露到公网 如非必需,节点不建议绑定EIP,以减少攻击面。 在必须使用EIP的情况下,应通过合理配置防火墙或者安全组规则,限制非必须的端口和IP访问。 在使用cce集

    来自:帮助中心

    查看更多 →

  • 业务数据不均衡处理建议

    业务数据不均衡处理建议 方案概述 Kafka将Topic划分为多个分区,所有消息分布式存储在各个分区上。每个分区有一个或多个副本,分布在不同的Broker节点上,每个副本存储一份全量数据,副本之间的消息数据保持同步。Kafka的Topic、分区、副本和代理的关系如下图所示: 在实

    来自:帮助中心

    查看更多 →

  • 客户端参数配置建议

    客户端参数配置建议 Kafka客户端的配置参数很多,以下提供Producer和Consumer几个常用参数配置。 表1 Producer参数 参数 默认值 推荐值 说明 acks 1 高可靠:all 高吞吐:1 收到Server端确认信号个数,表示procuder需要收到多少个这

    来自:帮助中心

    查看更多 →

  • Mapreduce应用开发建议

    Mapreduce应用开发建议 全局使用的配置项,在mapred-site.xml中指定 如下给出接口所对应的mapred-site.xml中的配置项: setMapperClass(Class <extends Mapper> cls) ->“mapreduce.job.map

    来自:帮助中心

    查看更多 →

  • Flink流式读Hudi表建议

    Flink流式读Hudi表建议 设置合理的消费参数避免File Not Found问题 当下游消费Hudi过慢,上游写入端会把Hudi文件归档,导致File Not Found问题。优化建议如下: 调大read.tasks。 如果有限流则调大限流参数。 调大上游compaction、archive、clean参数。

    来自:帮助中心

    查看更多 →

  • 操作系统分区建议

    操作系统分区建议 场景一: 裸金属服务器 使用BIOS启动 如果裸金属服务器使用BIOS启动,则需要BIOS镜像,且采用MBR分区表格式。详细分区建议如下: 如果主分区已经够用, A:需要boot、swap单独分区,选择如下分区方式: boot-swap-根分区: B:不需要boot

    来自:帮助中心

    查看更多 →

  • 创建报告规则

    报告人员:涉及两种角色,即谁需要填写该报告、该报告需要提交给谁。 3. 统计周期:可设置报告的提交周期(按天(可以勾选周一至周日需要汇报的日期)、按周、按月,实现周期性汇报场景;也可以选择不重复,实现单次汇报任务)。 4. 报告时间:提交时间、截止时间、提交提醒(可以设置在截止前的指定时间,由通知中心自动发送催交提醒)。

    来自:帮助中心

    查看更多 →

  • 创建报告

    报告人员:涉及两种角色,即谁需要填写该报告、该报告需要提交给谁。 统计周期:可设置报告的提交周期(按天(可以勾选周一至周日需要汇报的日期)、按周、按月,实现周期性汇报场景;也可以选择不重复,实现单次汇报任务)。 报告时间:提交时间、截止时间、提交提醒(可以设置在截止前的指定时间,由通知中心自动发送催交提醒)。

    来自:帮助中心

    查看更多 →

  • Flink流式写Hudi表建议

    Flink流式写Hudi表建议 使用SparkSQL统一建表。 推荐使用Spark异步任务对Hudi表进行Compaction。 父主题: Flink流式写Hudi表规范

    来自:帮助中心

    查看更多 →

  • Kafka客户端使用建议

    Kafka客户端使用建议 consumer使用建议 consumer的owner线程需确保不会异常退出,避免客户端无法发起消费请求,阻塞消费。 确保处理完消息后再做消息commit,避免业务消息处理失败,无法重新拉取处理失败的消息。 通常不建议对每条消息都进行commit,如果对

    来自:帮助中心

    查看更多 →

  • 资源优化建议的计算规则

    < 实际成本,预计月度节省 > 实际节省成本。 注意事项 EVS、EIP、ELB资源优化建议会在每日0点刷新(GMT+08:00),数据存在一定延迟。 您在2024年3月10日0点看到的优化建议,基于2024年3月8日12:00至3月9日12:00期间的资源表现。 涉及的成本信息(

    来自:帮助中心

    查看更多 →

  • DMS for RabbitMQ安全使用建议

    异常数据处理场景下数据误删、破坏的问题。 建议使用RabbitMQ集群实例,获得异常场景数据快速恢复能力。 在生产环境中建议使用RabbitMQ集群实例,在实例某个broker故障的情况下,不影响RabbitMQ实例持续提供服务。 建议使用多个可用区构建数据容灾能力。 Rabbi

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了