日志分析服务(Log Analysis Service, 简称LOG)一站式海量实时日志分析服务,提供日志实时采集、智能分析与可视化、转储等功能。提供端到端的快速、易用、丰富的日志分析平台

    log输出 更多内容
  • 表输出

    输出 概述 “表输出”算子,用于配置输出的字段对应到关系型数据库的指定列。 输入与输出 输入:需要输出的字段 输出:关系型数据库表 参数说明 表1 算子参数说明 参数 含义 类型 是否必填 默认值 输出分隔符 配置分隔符。 说明: 该配置仅用于MySQL专用连接器,当数据列内容

    来自:帮助中心

    查看更多 →

  • 文件输出

    文件输出 概述 “文件输出”算子,用于配置已生成的字段通过分隔符连接并输出到文件。 输入与输出 输入:需要输出的字段 输出:文件 参数说明 表1 算子参数说明 参数 含义 类型 是否必填 默认值 输出分隔符 配置分隔符。 string 是 无 换行符 用户根据数据实际情况,填写字

    来自:帮助中心

    查看更多 →

  • HBase输出

    HBase输出 概述 “HBase输出”算子,用于配置已生成的字段输出到HBase表的列。 输入与输出 输入:需要输出的字段 输出:HBase表 参数说明 表1 算子参数说明 参数 含义 类型 是否必填 默认值 HBase表类型 配置HBase表类型,可选项为normal(普通HBase表)和phoenix表。

    来自:帮助中心

    查看更多 →

  • Hive输出

    Hive输出 概述 “Hive输出”算子,用于配置已生成的字段输出到Hive表的列。 输入与输出 输入:需要输出的字段 输出:Hive表 参数说明 表1 算子参数说明 参数 含义 类型 是否必填 默认值 Hive文件存储格式 配置Hive表文件的存储格式(目前支持四种格式: CS V、ORC、RC和PARQUET)。

    来自:帮助中心

    查看更多 →

  • Spark输出

    Spark输出 概述 “Spark输出”算子,用于配置已生成的字段输出到SparkSQL表的列。 输入与输出 输入:需要输出的字段 输出:SparkSQL表 参数说明 表1 算子参数说明 参数 含义 类型 是否必填 默认值 Spark文件存储格式 配置SparkSQL表文件的存储

    来自:帮助中心

    查看更多 →

  • HBase输出

    HBase输出 概述 “HBase输出”算子,用于配置已生成的字段输出到HBase表的列。 输入与输出 输入:需要输出的字段 输出:HBase表 参数说明 表1 算子参数说明 参数 含义 类型 是否必填 默认值 HBase表类型 配置HBase表类型,可选项为normal(普通HBase表)和phoenix表。

    来自:帮助中心

    查看更多 →

  • log-agent插件

    log-agent插件 log-agent是基于开源fluent-bit和opentelemetry构建的云原生日志采集插件,支持基于CRD的日志采集策略,可以根据您配置的策略规则,对集群中的容器标准输出日志、容器文件日志、节点日志及K8s事件日志进行采集与转发。 log-age

    来自:帮助中心

    查看更多 →

  • 数据存储输出

    数据存储输出 算子简介 名称: 数据存储输出 功能说明: 数据输出到指定的数据存储。 约束:下游不允许接任何算子。 算子配置 基础配置项 算子名称: 配置项英文名:name 说明: 算子名称,对算子进行个性化的命名,以辅助增加可读性。支持中文、英文、数字、中划线、下划线,长度小于等于64个字符。

    来自:帮助中心

    查看更多 →

  • 查询execution输出

    查询execution输出 功能介绍 查询执行结果的输出。 URI GET /v1/executions/{execution_id}/outputs 请求消息 表1 参数说明 参数 是否必选 参数类型 描述 execution_id 是 String 执行结果ID,即创建execution接口返回值。

    来自:帮助中心

    查看更多 →

  • 获取项目输出

    获取项目输出 功能介绍 该接口用于查询项目的北向输出。 URI URI格式 GET /softcomai/datalake/dataplan/v1.0/north/progress/output?progressId={progressId}&type={type} 参数说明 参数名

    来自:帮助中心

    查看更多 →

  • 输出模块

    输出模块 构造一个用于输出的显示器 输出一帧图片 上传文件 上传缓冲区数据 发送消息 播放音频文件 示例-输出

    来自:帮助中心

    查看更多 →

  • 标准输出配置

    标准输出配置 通过添加指定采集容器标准输出标签,用户可以指定采集pod下的对应容器名的标准输出日志。用户在pod的yaml中spec:template:metadata:annotations:字段增加以下字段来实现指定要采集的容器名称。 kubernetes.AOM.log.stdout:

    来自:帮助中心

    查看更多 →

  • 创建输出流

    创建输出流 CloudTable HBase输出流 CloudTable OpenTSDB输出 MRS OpenTSDB输出 CSS Elasticsearch输出流 DCS输出流 DDS输出流 DIS输出流 DMS输出流 DWS输出流(通过JDBC方式) DWS输出流(通过OBS转储方式)

    来自:帮助中心

    查看更多 →

  • SMN输出流

    SMN输出流 功能描述 DLI 将Flink作业的输出数据输出到消息通知服务(SMN)中。 消息通知服务(Simple Message Notification,简称SMN)为DLI提供可靠的、可扩展的、海量的消息处理服务,它大大简化系统耦合,能够根据用户的需求,向订阅终端主动推送

    来自:帮助中心

    查看更多 →

  • DMS输出流

    的全托管式的Kafka消息队列。 DLI支持将作业的输出数据输出到DMS的Kafka实例中。创建DMS Kafka输出流的语法与创建开源Apache Kafka输出流一样,具体请参见MRS Kafka输出流。 父主题: 创建输出

    来自:帮助中心

    查看更多 →

  • ClickHouse输出

    ClickHouse输出 概述 “ClickHouse输出”算子,用于配置已生成的字段输出到ClickHouse表的列。 输入与输出 输入:需要输出的字段 输出:ClickHouse表 参数说明 表1 算子参数说明 参数 含义 类型 是否必填 默认值 数据库名 配置ClickHouse表所在的数据库

    来自:帮助中心

    查看更多 →

  • DIS输出流

    field2”。 enable_output_null 否 当编码格式为json时,需使用该参数来配置是否输出空字段。 当该参数为“true”表示输出空字段(值为null),若为“false”表示不输出空字段。默认值为“true”。 encode_class_name 否 当encode为us

    来自:帮助中心

    查看更多 →

  • RDS输出流

    RDS输出流 功能描述 DLI将Flink作业的输出数据输出到关系型数据库(RDS)中。目前支持PostgreSQL和MySQL两种数据库。PostgreSQL数据库可存储更加复杂类型的数据,支持空间信息服务、多版本并发控制(MVCC)、高并发,适用场景包括位置应用、金融保险、互

    来自:帮助中心

    查看更多 →

  • PGXC_COPY_ERROR_LOG

    PGXC_COPY_ERROR_ LOG PGXC_COPY_ERROR_LOG系统表用于捕捉COPY FROM过程的相关错误行,以便后续查阅。 开启三权分立(即enableSeparationOfDuty=on)时,使用者可以是数据库普通用户或管理员用户。使用前需要到各自的Sch

    来自:帮助中心

    查看更多 →

  • Cloud-vpc-log采集器(app-discovery-cloud-vpc-log)

    iscovery-cloud-vpc-log\output\file\app-discovery-cloud-vpc-log-xxx.csv log_path 是 填写vpc log日志文件所在路径,例如:/data/logs/vpc_log.csv 父主题: 采集器参数配置说明

    来自:帮助中心

    查看更多 →

  • 数据输出配置

    数据输出配置 数据存储输出 将数据输出到IoT数据分析服务的存储,以便进一步分析(资产建模、实时分析、时序分析)使用。 用户可以配置算子名称、选择存储组、填写存储名称,并选择所需要的属性及属性类型等信息,如图所示: DIS输出 将数据输出到DIS云服务,IoT数据分析服务仅在华为云部署时支持输出到DIS云服务。

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了