thread使用 更多内容
  • 使用

    使用 语法格式 创建增量物化视图 CREATE INCREMENTAL MATERIALIZED VIEW [ view_name ] AS { query_block }; 全量刷新物化视图 REFRESH MATERIALIZED VIEW [ view_name ]; 增量刷新物化视图

    来自:帮助中心

    查看更多 →

  • 使用多线程Consumer消费消息

    使用多线程Consumer消费消息 功能简介 在使用Consumer API订阅安全Topic并消费基础上,实现了多线程并发消费,可根据Topic的Partition数目起相应个数的Consumer线程来对应消费每个Partition上的消息。 下面代码片段在com.huawei

    来自:帮助中心

    查看更多 →

  • 使用

    使用 语法格式 创建增量物化视图 CREATE INCREMENTAL MATERIALIZED VIEW [ view_name ] AS { query_block }; 全量刷新物化视图 REFRESH MATERIALIZED VIEW [ view_name ]; 增量刷新物化视图

    来自:帮助中心

    查看更多 →

  • 使用

    使用 语法格式 创建增量物化视图 CREATE INCREMENTAL MATERIALIZED VIEW view_name AS query; 全量刷新物化视图 REFRESH MATERIALIZED VIEW view_name; 增量刷新物化视图 REFRESH INCREMENTAL

    来自:帮助中心

    查看更多 →

  • 使用

    使用 语法格式 创建全量物化视图 CREATE MATERIALIZED VIEW view_name AS query; 刷新全量物化视图 REFRESH MATERIALIZED VIEW view_name; 删除物化视图 DROP MATERIALIZED VIEW view_name;

    来自:帮助中心

    查看更多 →

  • 使用

    使用 语法格式 创建增量物化视图 CREATE INCREMENTAL MATERIALIZED VIEW [ view_name ] AS { query_block }; 全量刷新物化视图 REFRESH MATERIALIZED VIEW [ view_name ]; 增量刷新物化视图

    来自:帮助中心

    查看更多 →

  • GLOBAL

    GLOBAL_PARALLEL_DECODE_THREAD_INFO GLOBAL_PARALLEL_DECODE_THREAD_INFO视图用于查看集群各主DN节点上的进行并行解码的线程信息。该视图需在CN上查询,在DN上查询报错。 表1 GLOBAL_PARALLEL_DECODE_THREAD_INFO字段

    来自:帮助中心

    查看更多 →

  • 由于Kafka配置的限制,导致Spark Streaming应用运行失败

    Streaming应用运行失败 问题 使用运行的Spark Streaming任务回写Kafka时,Kafka上接收不到回写的数据,且Kafka日志报错信息如下: 2016-03-02 17:46:19,017 | INFO | [kafka-network-thread-21005-1] | Closing

    来自:帮助中心

    查看更多 →

  • 由于Kafka配置的限制,导致Spark Streaming应用运行失败

    Streaming应用运行失败 问题 使用运行的Spark Streaming任务回写Kafka时,Kafka上接收不到回写的数据,且Kafka日志报错信息如下: 2016-03-02 17:46:19,017 | INFO | [kafka-network-thread-21005-1] | Closing

    来自:帮助中心

    查看更多 →

  • 其他相关参数优化

    my_index { "settings": { "index.merge.scheduler.max_thread_count": 8 } } 父主题: 使用说明

    来自:帮助中心

    查看更多 →

  • 创建HDFS多线程任务

    final int THREAD_COUNT = 2; for (int threadNum = 0; threadNum < THREAD_COUNT; threadNum++) { HdfsExampleThread example_thread = new Hdfs

    来自:帮助中心

    查看更多 →

  • 创建HDFS多线程任务

    final int THREAD_COUNT = 2; for (int threadNum = 0; threadNum < THREAD_COUNT; threadNum++) { HdfsExampleThread example_thread = new Hdfs

    来自:帮助中心

    查看更多 →

  • 由于kafka配置的限制,导致Spark Streaming应用运行失败

    Streaming应用运行失败 问题 使用运行的Spark Streaming任务回写kafka时,kafka上接收不到回写的数据,且kafka日志报错信息如下: 2016-03-02 17:46:19,017 | INFO | [kafka-network-thread-21005-1] | Closing

    来自:帮助中心

    查看更多 →

  • 由于Kafka配置的限制,导致Spark Streaming应用运行失败

    Streaming应用运行失败 问题 使用运行的Spark Streaming任务回写Kafka时,Kafka上接收不到回写的数据,且Kafka日志报错信息如下: 2016-03-02 17:46:19,017 | INFO | [kafka-network-thread-21005-1] | Closing

    来自:帮助中心

    查看更多 →

  • PGXC

    PGXC_THREAD_WAIT_STATUS视图和PG_THREAD_WAIT_STATUS视图列定义完全相同,这是由于PGXC_THREAD_WAIT_STATUS视图本质是到集群中各个节点上查询PG_THREAD_WAIT_STATUS视图汇总的结果。 表1 PGXC_THREAD_WAIT_STATUS字段

    来自:帮助中心

    查看更多 →

  • PGXC

    PGXC_THREAD_WAIT_STATUS视图和PG_THREAD_WAIT_STATUS视图列定义完全相同,这是由于PGXC_THREAD_WAIT_STATUS视图本质是到集群中各个节点上查询PG_THREAD_WAIT_STATUS视图汇总的结果。 表1 PGXC_THREAD_WAIT_STATUS字段

    来自:帮助中心

    查看更多 →

  • 在本地Windows环境中调测IoTDB应用

    19:53:42.988 [pool-3-thread-1] DEBUG org.apache.iotdb.flink.IoTDBSink - send event successfully 19:53:42.988 [pool-6-thread-1] DEBUG org.apache

    来自:帮助中心

    查看更多 →

  • Elasticsearch集群最大堆内存持续过高(超过90%)

    ,节点频繁掉线等情况。需要根据需要扩容节点规模,或分业务重新规划集群规模。 如果日常使用有95%堆内存波动和节点掉线情况,可根据需要使用流量控制功能。更多信息,请参见流量控制。 父主题: 功能使用

    来自:帮助中心

    查看更多 →

  • PV

    PV_SESSION_MEMORY_DETAIL视图显示会话的内存使用情况,以MemoryContext节点来统计。当开启线程池(enable_thread_pool = on)时,该视图包含所有的线程和会话的内存使用情况。 其中内存上下文“TempSmallContextGrou

    来自:帮助中心

    查看更多 →

  • GS

    GS_SESSION_MEMORY_DETAIL显示会话的内存使用情况,以MemoryContext节点来统计。当开启线程池(enable_thread_pool = on)时,该视图包含所有线程和会话的内存使用情况。当GUC参数enable_memory_limit的值为off时,本视图不可用。

    来自:帮助中心

    查看更多 →

  • PV

    PV_SESSION_MEMORY_DETAIL统计会话的内存使用情况,以MemoryContext节点来统计。当开启线程池(enable_thread_pool = on)时,该视图包含所有的线程和会话的内存使用情况。 其中内存上下文“TempSmallContextGrou

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了