vendor.js 太大 更多内容
  • 使用模板创建应用

    不会被同步,需要您重新配置。 应用图标:此处设置的图标,用于在门户中显示。对上传图片的大小没有限制,系统会自动进行同比例缩放,建议不要使用太大的图片。 图2 应用图标在门户中显示效果 应用名称:根据应用的实际用途或功能进行设置,长度不能超过32个字符。 应用描述:建议设置为应用的

    来自:帮助中心

    查看更多 →

  • 换道(Lane Change)检测

    id发生变化, 在该时刻的前后一段时间内主车处于换道过程。 对于判定换道时的侧向加速度是否合理, 本设计考虑换道时刻的前后2s的时间段内的侧向加速度是否太大, 对于侧向加速度大于一定阈值(可用户自定义,本设计取2m/s2), 则换道时的侧向加速度检测不通过。 对于判断换道持续时间是否合理, 本

    来自:帮助中心

    查看更多 →

  • 上传/下载文件失败怎么办?

    受限于云 堡垒机 “数据分区”空间大小,当上传/下载的文件大小大于剩余“数据分区”空间时,请管理员用户先清理系统空间或变更版本规格。 排查上传/下载的文件是否太大 上传/下载的文件太大 用户将大文件切割成1G左右的小文件,分批次上传/下载。 受限于云堡垒机“数据分区”空间大小,当上传/下载的文件大小大于剩余“数

    来自:帮助中心

    查看更多 →

  • 行数估算过小,优化器选择走NestLoop导致性能下降

    信息不准,优化器评估结果集较少,执行计划使用了NestLoop导致性能下降。 gstack 14104 对表执行ANALYZE后性能并没有太大改善。 对SQL增加hint关闭索引,让优化器强行使用hashjoin,发现hint功能没有生效,原因是hint无法改变子查询中的计划。 通过SET

    来自:帮助中心

    查看更多 →

  • 配置HDFS快速关闭文件功能

    关闭文件时,允许待关闭文件中处于COMMITTED状态的Block的数量。 默认为:0,即关闭该特性。如果开启该特性,一般建议值为1~2,不建议太大。 例如:如果该参数值为1,则表示无需等待最后一个Block状态变成COMPLETED即可关闭文件。 参数修改后保存配置。 在HDFS“实

    来自:帮助中心

    查看更多 →

  • 查看Spark任务日志失败

    任务运行完成,但是查看不到日志。 原因分析 问题1:可能原因是 MapReduce服务 异常。 问题2:可能原因如下: Spark的JobHistory服务异常。 日志太大,NodeManager在做日志汇聚的时候出现超时。 HDFS存放日志目录权限异常(默认/tmp/logs/用户名/logs)。 日志已被

    来自:帮助中心

    查看更多 →

  • 使用SFS盘出现报错rpc

    结合当前购买的SFS盘性能规划业务, 建议不要运行到性能上限。 可以购买多个SFS Turbo实例分担业务压力, 或者更换高性能的SFS盘。 一个SFS实例容量建议不要太大,建议以同样的成本换成购买多个SFS实例。 父主题: FAQ

    来自:帮助中心

    查看更多 →

  • 客户端错误码

    90000001 sdk内部系统错误 SDK内部异常。 HWRtcErrorCodeMsgToolarge 90000002 发送的消息太大 发送消息时,消息体太大。 HWRtcErrorCodeMemNotEnough 90000003 内存不足 内存无法申请。 HWRtcErrorCodeSynsendMsgError

    来自:帮助中心

    查看更多 →

  • ALM-45642 RocksDB持续触发写限流

    MemTable太多引起写限流或写停止,伴随有“ALM-45643 RocksDB的MemTable大小持续超过阈值”的告警。 Level0层的SST文件数据太大,伴随有“ALM-45644 RocksDB的Level0层SST文件数持续超过阈值”的告警。 预估Compaction的大小超过阈值,伴随有“ALM-45647

    来自:帮助中心

    查看更多 →

  • ALM-12012 NTP服务异常

    5分钟后查看告警是否消除。 是,处理完毕。 否,执行38。 检查该节点与主 OMS 节点chrony服务时间偏差是否太大。 NTP告警的“附加信息”是否描述“时间偏差太大”。 是,执行18。 否,执行38。 在“主机”页面,勾选告警节点的主机,选择“更多 > 停止所有实例”停止告警节点的所有服务。

    来自:帮助中心

    查看更多 →

  • 查看集群风险项

    连续5分钟检测当前集群是否有节点脱离或不可用。 检测节点分片数量是否过多,单节点分片数量过多会消耗大量节点资源,读写请求时延增加,集群元数据更新缓慢等。 检测所有分片大小,分片太大可能导致查询性能下降,节点内存消耗增加,影响扩缩容以及节点故障时分片的恢复速率等。 检测当前集群是否存在可升级的版本。 检测集群7天内是否

    来自:帮助中心

    查看更多 →

  • 新建CarbonData Table

    如果“table_blocksize”值太小,数据加载时,生成过多的小数据文件,可能会影响HDFS的使用性能。 如果“table_blocksize”值太大,数据查询时,索引匹配的block数据量较大,某些block会包含较多的blocklet,导致读取并发度不高,从而降低查询性能。 一般情况

    来自:帮助中心

    查看更多 →

  • 为什么Kafka实例常常发生Rebalance,导致消息拉取失败?

    消费的消息太多导致无法在max.poll.interval.ms时间内处理完或消息处理流程发生了异常(如需要写入后端数据库,后端数据库压力太大,时延增加等)导致消费时间增加,在max.poll.interval.ms时间内消费者没有发起下一次消费请求,broker认为消费者不活跃

    来自:帮助中心

    查看更多 →

  • 新建CarbonData表

    如果“table_blocksize”值太小,数据加载时,生成过多的小数据文件,可能会影响HDFS的使用性能。 如果“table_blocksize”值太大,数据查询时,索引匹配的block数据量较大,某些block会包含较多的blocklet,导致读取并发度不高,从而降低查询性能。 一般情况

    来自:帮助中心

    查看更多 →

  • 添加应用

    不支持在多个远程会话里同时打开的软件,可以通过沙箱实现多开 沙箱使用限制: 沙箱中的数据在沙箱内,删除沙箱,所有的东西都会被清理掉。 如果文件太大,不能拷贝到沙箱中编辑,只能是只读模式。 说明: 请先确认并关联 服务器 组实例已安装应用沙箱软件;否则应用将无法启动。 勾选 沙箱应用路径 沙箱应用文件的安装位置,

    来自:帮助中心

    查看更多 →

  • 识别结果响应

    score Float 识别结果的置信度,取值范围:0~1。此值仅会在最终结果时被赋值,在中间结果时统一置为“0.0”。 说明: 目前置信度作用不是太大,请勿过多依赖此值。 word_info Array of Object 分词输出列表。 表4 word_info 数据结构 参数名 是否必选

    来自:帮助中心

    查看更多 →

  • 数据库年龄增长问题定位及处理方法

    select * from pg_stat_activity where backend_type like '%vacuu%'; 写入的数据量太大 查看数据库年龄。 select datname, age(datfrozenxid) from pg_database where datname

    来自:帮助中心

    查看更多 →

  • 配置Spark Streaming对接Kafka可靠性

    Kafka上读取数据的。 Kafka服务的topic的leader异常后,如果Kafka的leader和follower的offset相差太大,用户重启Kafka服务,Kafka的follower和leader相互切换,则Kafka服务重启后,topic的offset变小。 如果Spark

    来自:帮助中心

    查看更多 →

  • GAUSS-01971 -- GAUSS-01980

    '%s' too large for tar format" SQLSTATE: XX000 错误原因:处理重建命令过程中,主机需要发送的文件太大,无法压缩。 解决办法:如果文件合法,则需要分割压缩。 GAUSS-01979: "base backup could not send data

    来自:帮助中心

    查看更多 →

  • 查看集群风险项

    连续5分钟检测当前集群是否有节点脱离或不可用。 检测节点分片数量是否过多,单节点分片数量过多会消耗大量节点资源,读写请求时延增加,集群元数据更新缓慢等。 检测所有分片大小,分片太大可能导致查询性能下降,节点内存消耗增加,影响扩缩容以及节点故障时分片的恢复速率等。 检测当前集群是否存在可升级的版本。 检测集群7天内是否

    来自:帮助中心

    查看更多 →

  • 广播表和单表的使用场景

    或者选择在业务低峰期执行,否则可能会出现“后端RDS连接数可能不够用”报错。 广播表的插入操作,会在每个分片的表中进行插入。如果此表数据量太大(超过100万条数据),不建议使用广播表,以免占用太多数据空间,可以使用拆分表。

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了