socket 多线程 端口扫描 更多内容
  • ecpg与Pro*C兼容性对比

    ecpg当前不支持CONTEXT申请、使用、释放操作,ecpg有独立的内存管理机制。多线程模式下,ecpg在每个线程中独立地建立连接、执行SQL语句以及相关资源的释放。这一使用方式与Pro*C多线程程模式下每个线程各自进行CONTEXT相关申请与释放的处理逻辑一致。 目前ecpg不支持EXEC

    来自:帮助中心

    查看更多 →

  • SET/RESET

    carbontable1 = 1, 3, 9; 多线程模式查询指定段示例如下: CarbonSession.threadSet ("carbon.input.segments.default.carbon_table_MulTI_THread", "1,3"); 在多线程环境中使用CarbonSession

    来自:帮助中心

    查看更多 →

  • ObsClient初始化

    max_retry_count integer 可选 HTTP/HTTPS连接异常时的请求重试次数。默认为3次。 socket_timeout integer 可选 Socket层传输数据的超时时间(单位:秒)。默认为60秒。 connect_timeout integer 可选 建立

    来自:帮助中心

    查看更多 →

  • Rsync迁移SFS实施步骤

    使用Robocopy工具迁移数据 Windows自带工具。 支持多线程、断点续传。 适用10 T以上的上亿小文件,单个文件100K左右的海量数据迁移。 支持数据增量同步。 适用Windows操作系统海量数据多线程、断点续传 。 使用IIS FTP迁移数据 支持众多操作系统平台。

    来自:帮助中心

    查看更多 →

  • 为什么从Yarn Web UI页面无法跳转到Spark Web UI界面

    UI界面,出现下面的错误: 从YARN ResourceManager的日志看到: 2016-07-21 16:35:27,099 | INFO | Socket Reader #1 for port 8032 | Auth successful for mapred/hadoop.<系统 域名 >@<系统域名>

    来自:帮助中心

    查看更多 →

  • ecpg与Pro*C兼容性对比

    ecpg当前不支持CONTEXT申请、使用、释放操作,ecpg有独立的内存管理机制。多线程模式下,ecpg在每个线程中独立地建立连接、执行SQL语句以及相关资源的释放。这一使用方式与Pro*C多线程程模式下每个线程各自进行CONTEXT相关申请与释放的处理逻辑一致。 目前ecpg不支持EXEC

    来自:帮助中心

    查看更多 →

  • GLOBAL_COMM_CLIENT_INFO

    integer 当前线程的轻量级线程号。 query_id bigint 查询ID,对应debug_query_id。 socket integer 如果是物理连接,显示socket。 remote_ip text 对端节点IP。 remote_port text 对端节点port。 logic_id

    来自:帮助中心

    查看更多 →

  • ecpg与Pro*C兼容性对比

    ecpg当前不支持CONTEXT申请、使用、释放操作,ecpg有独立的内存管理机制。多线程模式下,ecpg在每个线程中独立地建立连接、执行SQL语句以及相关资源的释放。这一使用方式与Pro*C多线程程模式下每个线程各自进行CONTEXT相关申请与释放的处理逻辑一致。 目前ecpg不支持EXEC

    来自:帮助中心

    查看更多 →

  • GLOBAL_COMM_CLIENT_INFO

    integer 当前线程的轻量级线程号 query_id bigint 查询ID,对应debug_query_id socket integer 如果是物理连接,显示socket remote_ip text 对端节点IP remote_port text 对端节点port logic_id

    来自:帮助中心

    查看更多 →

  • ClickHouse数据批量导入

    ClickHouse数据批量导入 本章节适用于 MRS 3.3.0及之后版本。 操作场景 当同时存在较多待导入的数据文件,用户可以使用多线程导入工具批量导入ClickHouse。 前提条件 已安装ClickHouse客户端,例如客户端安装目录为“/opt/client”。 如果集群

    来自:帮助中心

    查看更多 →

  • 开发HDFS应用

    创建HDFS文件并写入内容 追加信息到HDFS指定文件 读取HDFS指定文件内容 删除HDFS指定文件 删除HDFS指定目录 创建HDFS多线程任务 配置HDFS存储策略 配置HDFS同分布策略(Colocation) 父主题: HDFS开发指南(安全模式)

    来自:帮助中心

    查看更多 →

  • 开发HDFS应用

    创建HDFS文件并写入内容 追加信息到HDFS指定文件 读取HDFS指定文件内容 删除HDFS指定文件 删除HDFS指定目录 创建HDFS多线程任务 配置HDFS存储策略 配置HDFS同分布策略(Colocation) 父主题: HDFS开发指南(普通模式)

    来自:帮助中心

    查看更多 →

  • 开发HDFS应用

    创建HDFS文件并写入内容 追加信息到HDFS指定文件 读取HDFS指定文件内容 删除HDFS指定文件 删除HDFS指定目录 创建HDFS多线程任务 配置HDFS存储策略 配置HDFS同分布策略(Colocation) 父主题: HDFS开发指南(普通模式)

    来自:帮助中心

    查看更多 →

  • GLOBAL

    integer 当前线程的轻量级线程号 query_id bigint 查询ID,对应debug_query_id socket integer 如果是物理连接,显示socket remote_ip text 对端节点IP remote_port text 对端节点port logic_id

    来自:帮助中心

    查看更多 →

  • PG

    integer 当前线程的轻量级线程号。 query_id bigint 查询ID,对应debug_query_id。 socket integer 如果是物理连接,显示socket。 remote_ip text 对端节点IP。 remote_port text 对端节点port。 logic_id

    来自:帮助中心

    查看更多 →

  • 关于GDS并行导入

    以采用GDS多线程来支持并发导入。 GDS是根据导入事务并发数来决定服务运行线程数的,也就是说即使启动GDS时设置了多线程,也并不会加速单个导入事务。未做过人为事务处理时,一条INSERT语句就是一个导入事务。 综上,多线程的使用场景如下: 多表并发导入时,采用多线程充分利用资源及提升并发导入效率。

    来自:帮助中心

    查看更多 →

  • 公网环境下如何提高上传大文件速度?(Python SDK)

    分段上传是将单个对象拆分为一系列段分别上传,每个段都是对象数据的连续部分,您可以按照任意顺序上传段。如果其中某个段传输失败,可以重新传输该段且不会影响其他段。通过多线程并发上传同一对象的多个段,可大大提高传输效率。 具体代码样例可参见多段相关接口(Python SDK)。 父主题: 常见问题(Python

    来自:帮助中心

    查看更多 →

  • 连接数据库(以UDS方式)

    连接数据库(以UDS方式) UNIX domain socket用于同一主机上不同进程间的数据交换,通过添加junixsocket获取套接字工厂使用。 需要引用的jar包有junixsocket-core-XXX.jar、junixsocket-common-XXX.jar、ju

    来自:帮助中心

    查看更多 →

  • 如何使用IDEA远程调试

    x对应的调试命令也跟着改变,比如Port设置为5006,对应调试命令会变更为-Xdebug -Xrunjdwp:transport=dt_socket,server=y,suspend=y,address=5006,这个调试命令在启动Spark程序时要用到。 执行以下命令,远端启动Spark运行SparkPi。

    来自:帮助中心

    查看更多 →

  • 如何使用IDEA远程调试

    x对应的调试命令也跟着改变,比如Port设置为5006,对应调试命令会变更为-Xdebug -Xrunjdwp:transport=dt_socket,server=y,suspend=y,address=5006,这个调试命令在启动Spark程序时要用到。 执行以下命令,远端启动Spark运行SparkPi。

    来自:帮助中心

    查看更多 →

  • 如何使用IDEA远程调试

    x对应的调试命令也跟着改变,比如Port设置为5006,对应调试命令会变更为-Xdebug -Xrunjdwp:transport=dt_socket,server=y,suspend=y,address=5006,这个调试命令在启动Spark程序时要用到。 执行以下命令,远端启动Spark运行SparkPi。

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了