百万条 更多内容
  • CDM迁移近一个月的数据

    实例类型 核数/内存 最大带宽/基准带宽 并发作业数 适用场景 cdm.large 8核/16G 3/0.8 Gbps 16 单表规模≥1000万条。 cdm.xlarge 16核/32G 10/4 Gbps 32 适合10GE高速带宽进行TB以上的数据量迁移。 cdm.4xlarge

    来自:帮助中心

    查看更多 →

  • 执行导入数据

    执行导入数据 完成GDS的安装部署及外表创建后,本节介绍如何在 GaussDB数据库 中创建目标表并将数据导入目标表中。 对于记录数超过千万条的表,建议在执行全量数据导入前,先导入部分数据,以查看数据倾斜状态,避免导入大量数据后发现数据倾斜,调整成本高。 前提条件 需要确保每一个CN

    来自:帮助中心

    查看更多 →

  • 创建增强型跨源连接

    routetable_id 否 String 对应服务的子网关联的路由表。 hosts 否 Array of Objects 用户自定义主机信息,最大支持2万条记录,详细信息参见表 hosts请求参数。 tags 否 Array of Objects 跨源连接的标签。具体请参考表4。 表3 hosts请求参数

    来自:帮助中心

    查看更多 →

  • 处理告警

    编辑告警的备注信息。 导出 导出.xlsx或.csv格式的告警表,当导出格式为.xlsx且告警数量超过10万条时,文件将以zip压缩包的格式导出。当导出格式为.csv且告警数量超过1万条时,文件将以zip压缩包的格式导出。 系统最多支持5个用户同时执行导出部分告警操作,最多支持2个用户同时执行导出全部告警操作。

    来自:帮助中心

    查看更多 →

  • CDM迁移近一个月的数据

    实例类型 核数/内存 最大带宽/基准带宽 并发作业数 适用场景 cdm.large 8核/16G 3/0.8 Gbps 16 单表规模≥1000万条。 cdm.xlarge 16核/32G 10/4 Gbps 32 适合10GE高速带宽进行TB以上的数据量迁移。 cdm.4xlarge

    来自:帮助中心

    查看更多 →

  • 数据归档清理

    是清除原数据库中的数据并归档在新的数据库中,所以需要先完成归档实例配置。 当选择归档业务数据时,为防止归档数据过多,归档数据上限设置为50万条数据,且每个批次最多归档5000条数据。当每批次的记录转存到指定的归档实例上时,同一个对象的记录命名为{object_name}_{UTC时间}_{批次}

    来自:帮助中心

    查看更多 →

  • 产品优势

    任意一对主从节点故障,自建开源集群将不可用 即使N-1个节点同时故障,GeminiDB实例依然可用 数据可靠性 / 弱 节点重启,网络波动等场景通常存在数千条或者上万条数据丢失;数据弱一致,容易产生脏读问题。 高可靠 数据3副本可靠存储,可用作主数据库,替代传统的DB+Cache方案,简化业务架构;数据强一致,无脏读问题。

    来自:帮助中心

    查看更多 →

  • 通过控制台使用消息&短信服务

    请选择合适的模板类型,并需要运营经理审核。 发送短信(短信API) 一次请求,单条短信,最多只能指定500个接收号码。 - 发送短信(群发助手) 单次群发任务最多支持上传100万条号码,支持大小为12MB以内的xlsx格式文件。 支持定时发送功能,请合理设置定时发送时间。 推荐设置每日8:00-22:00的发送任务,尽量避免夜间发送,减少用户投诉。

    来自:帮助中心

    查看更多 →

  • 查询和管理Logstash集群日志

    面。 左侧导航栏,选择“日志管理”。 在日志管理页面进行日志查询。 选择需要查询的节点,单击,显示查询结果。 查询日志时,是从最近时刻的1万条日志中进行匹配,查询结果最多显示100条。 备份日志 日志备份可以定期将 CSS 集群的日志存储到OBS桶中。 登录 云搜索服务 管理控制台。 在

    来自:帮助中心

    查看更多 →

  • 导入数据最佳实践

    在完成导入操作后,请使用SELECT查询语句验证所需文件是否已导入。 OBS导入导出数据时,不支持中文路径。 使用GDS导入数据 数据倾斜会造成查询表性能下降。对于记录数超过千万条的表,建议在执行全量数据导入前,先导入部分数据,以进行数据倾斜检查和调整分布列,避免导入大量数据后发现数据倾斜而造成调整成本高。详细请参见查看数据倾斜状态章节。

    来自:帮助中心

    查看更多 →

  • 打造政务智能问答助手

    需要针对涉及的模块分别构造相关的微调数据。 query改写模块 来源:互联网开源数据集 问答模块 来源一:互联网开源数据集,如政府网站网页、政府在线问答公开数据、政务科等。 来源二:特定的私域数据,针对于具体场景和项目需求,收集相关的文本数据。比如通过与当地政府的政数局进行合作,获取政府部门提供的内部脱敏

    来自:帮助中心

    查看更多 →

  • CarbonData数据类型概述

    在内存中排序的大小(使用“carbon.sort.size”进行配置) 中间缓存(使用“carbon.graph.rowset.size”进行配置) 加载包含1000万条记录和300列的8 GB CS V文件的数据,每行大小约为0.8KB的8GB CSV文件的数据,需要约为10GB的executor执行内存,也就是说,“carbon

    来自:帮助中心

    查看更多 →

  • 进入搜索LTS日志页面

    次下载支持最大2000万条日志。非白名单用户单次下载支持最大5,000条日志。 在下拉框中选择“.csv”或“.txt”,单击“开始下载日志”,可将日志导出至本地。 前往创建转储(白名单功能):通过OBS转储任务下载日志文件,单次下载支持最大2,000万条日志。单击“前往创建转储

    来自:帮助中心

    查看更多 →

  • 全量数据同步

    全量数据同步 针对数据增长缓慢、非核心业务相关、无时间戳、无增删改标识、数据量低于十万条的明细表数据,以及码表、维度表等数据,采用全量同步的方式接入数管平台,并存放在贴源层的全量表内。数据初始化全量同步是指第一次从业务源库中采用全量同步的方式获取一次数据。 确定数据源 通过调研获

    来自:帮助中心

    查看更多 →

  • 错误码

    待导入知识库的文件格式异常。 检查文件格式,修改正确后重新尝试。 400 CBS.2205 待导入知识库的qa对个数超过限制。 检查待导入的qa对个数是否已超过100万条,再重新尝试。 400 CBS.2611 OBS访问失败。 确认该账号有无访问OBS权限,再重新尝试。 400 CBS.2624 桶资源不存在。

    来自:帮助中心

    查看更多 →

  • 导入最佳实践

    导入最佳实践 使用GDS导入数据 数据倾斜会造成查询表性能下降。对于记录数超过千万条的表,建议在执行全量数据导入前,先导入部分数据,以进行数据倾斜检查和调整分布列,避免导入大量数据后发现数据倾斜,调整成本高。详细请参见查看数据倾斜状态。 为了优化导入速度,建议拆分文件,使用多GD

    来自:帮助中心

    查看更多 →

  • 设置LTS日志索引配置

    配置的字段索引支持SQL可视化分析,否则无法查询到ICAgent结构化的可视化数据。 设置快速分析采样条数,默认值10万条,最小值为10万条,最大值1000万条。通过采样快速统计字段值取值分布,并非对全量数据进行分析,采样条数越多分析数据越慢。 在索引配置页面的字段索引下方,单击

    来自:帮助中心

    查看更多 →

  • 设置LTS日志索引配置

    配置的字段索引支持SQL可视化分析,否则无法查询到ICAgent结构化的可视化数据。 设置快速分析采样条数,默认值10万条,最小值为10万条,最大值1000万条。通过采样快速统计字段值取值分布,并非对全量数据进行分析,采样条数越多分析数据越慢。 在索引配置页面的字段索引下方,单击

    来自:帮助中心

    查看更多 →

  • 应用场景

    Flink的Dataflow模型,高性能计算资源,从用户自建的Kafka、 MRS -Kafka、DMS-Kafka消费数据,单CU每秒吞吐1千~2万条消息。 细粒度权限管理:P公司内部有N个子部门,子部门之间需要对数据进行共享和隔离。 DLI 支持计算资源按租户隔离,保障作业SLA;支持数据

    来自:帮助中心

    查看更多 →

  • Spark Structured Streaming对接Kafka样例程序开发思路

    10000000 show 5m click 5m 此命令将在kafka上创建3个topic:req、show、click,在2h内生成1千万条请求事件数据,请求事件的时间取值范围为{当前时间-1h 至 当前时间},并为每条请求事件随机生成0-5条展示事件,展示事件的时间取值范围为{请求事件时间

    来自:帮助中心

    查看更多 →

  • Spark Structured Streaming对接Kafka样例程序开发思路

    10000000 show 5m click 5m 此命令将在kafka上创建3个topic:req、show、click,在2h内生成1千万条请求事件数据,请求事件的时间取值范围为{当前时间-1h 至 当前时间},并为每条请求事件随机生成0-5条展示事件,展示事件的时间取值范围为{请求事件时间

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了