Pipe管道 更多内容
  • IoTA.02010203 存储实例被数据管道使用中,无法删除

    存储实例被数据管道使用中,无法删除 错误码描述 存储实例被数据管道使用中,无法删除。 可能原因 存储实例被某些数据管道使用中。 处理建议 请先在对应的数据管道删除此存储输出,或先删除对应的数据管道,再删除此存储。 找到此存储关联的管道名称。 删除关联的管道。点击左侧的数据管道,根据数据

    来自:帮助中心

    查看更多 →

  • 数据采集概述

    主要包括input、output两部分,分别对应源连接器、目的连接器,用于定义采集器Logstash接受数据方式和规范。其中,安全云脑管道pipe连接器可以对接安全云脑,实现租户数据上报安全云脑,安全云脑数据转储到租户的能力。 解析器:Logstash配置的基础概念,主要为Log

    来自:帮助中心

    查看更多 →

  • 启动Logstash迁移任务

    的选项默认与管道列表中其他任务的值保持一致,且不支持修改。 单击“确定”,开始热启动配置文件启动Logstash迁移任务。 可以在管道列表看到热启动的配置文件。 监控迁移任务 当启动配置文件后,在管道列表会生成一个任务, CSS 服务支持查看管道任务的数据监控。 在管道列表,单击操作

    来自:帮助中心

    查看更多 →

  • 接收数据类型不同的作业可使用的算子有何区别?

    实时分析目前有两种接收数据类型:管道数据和资产数据。管道数据表示使用来自“数据管道”的数据进行实时分析,资产数据表示使用经过“资产建模”之后的数据进行实时分析。 可使用的算子区别在于输入、输出部分:当接收数据类型为“管道数据”时,输入算子为“管道输入数据”,输出算子为“DIS输出

    来自:帮助中心

    查看更多 →

  • IoTA.03011006 作业名已存在

    作业名已存在 错误码描述 作业名已存在。 可能原因 在创建数据管道作业、或修改已有数据管道作业名称时,作业名称与已经存在的作业名称有重复,数据管道作业名称要求在项目内唯一。 处理建议 请改用其他不重复的作业名称。 父主题: 数据管道相关错误码

    来自:帮助中心

    查看更多 →

  • 新建作业

    实时分析是以作业为管理对象,您首先需要根据实时业务诉求创建实时分析作业。 IoT数据分析服务实时分析可使用数据管道与资产模型作为数据源,请您先确认已创建数据管道或资产模型,相关操作请参考数据管道、资产模型。 如果您所要求的实时任务需要发送数据到你申请的DIS云服务,请先进行DIS云服务授权配

    来自:帮助中心

    查看更多 →

  • 强制重启Logstash集群

    h进程。 当管道列表“是否保持常驻”为“否”时,重启过程中会将所有“运行中”的管道状态置为“已停止”。 当管道列表“是否保持常驻”为“是”时,重启过程中会触发Logstash进程恢复机制,将工作中的管道状态置为“恢复中”,如果十分钟内重新拉起Logstash进程,管道状态恢复为“工作中”,否则置为“失败”状态。

    来自:帮助中心

    查看更多 →

  • OBS操作相关故障

    保存模型时出现Unable to connect to endpoint错误 OBS复制过程中提示“BrokenPipeError: Broken pipe” 日志提示“ValueError: Invalid endpoint: obs.xxxx.com” 日志提示“errorMessage:The

    来自:帮助中心

    查看更多 →

  • 创建存储

    创建存储 在数据管道中配置存储输出算子时,如果未选择已有存储,则将创建新的存储。在数据管道中通过存储输出算子创建的存储将会展示在存储管理中的对应的存储组之下。数据管道的数据存储输出算子配置详见数据存储输出。 父主题: 存储

    来自:帮助中心

    查看更多 →

  • 设备时序探索中找不到设备

    用户指南> 数据源配置”添加数据源。 2、未创建数据管道,或者数据管道未运行,请参照“IoT数据分析> 用户指南> 数据管道> 创建数据管道”配置管道。 3、IoTDA 实时数据源中未配置对应的产品,请勾选对应的产品,并点击确定保存。 4、数据管道中未配置对应的产品过滤算子,请添加“产品过滤”算子以及“数据存储输出”算子。

    来自:帮助中心

    查看更多 →

  • Broker Load导入数据时报超时错误

    thrift.transport.TTransportException: java.net.SocketException: Broken pipe 原因分析 从外部存储(例如HDFS)导入数据时,由于目录下文件过多,导致列出文件目录超时。 处理步骤 登录 FusionInsight Manager,选择“集群

    来自:帮助中心

    查看更多 →

  • 使用DIS数据源

    使用DIS数据源 点击导航栏上的“数据管理”标签,进入数据管道页面,在“管理列表”部分有一按钮“创建数据管道”,如图所示: 点击“创建数据管道”按钮,弹出“创建数据管道”对话框,用户可自行填写“作业名称”(注意:同一用户所创建的作业名称不可重复)、“描述”,并选择数据源(若列表为

    来自:帮助中心

    查看更多 →

  • 步骤十二:测试验证

    图4 查看日志接入情况 在安全云脑控制台的安全分析日志管道中查看数据。 在左侧数据空间导航栏中,单击数据空间名称,展开数据管道列后,再单击创建日志存储管道创建的管道名称,右侧将显示管道数据的检索页面。 图5 管道数据页面 日志管道有数据,说明日志接入成功。 父主题: 实施步骤

    来自:帮助中心

    查看更多 →

  • 实时分析输出

    实时分析输出 算子简介 将经过数据管道清洗后的数据输出到实时分析,作为实时分析的数据来源。 算子配置 算子配置项如图所示: 算子名称:用户指定这个算子的名称。 管道输出数据名称:用户声明这个输出的名称,以便在实时分析作业的“管道数据输入”算子中使用。 属性:用户选择需要将哪些属性输出给实时分析进行后续的分析任务。

    来自:帮助中心

    查看更多 →

  • 使用Python脚本连接MRS安全集群执行Impala SQL

    'impala1@F5840AB1_7495_448E_BC63_A8D2B0E2EE69.COM'], stdin=PIPE, stdout=PIPE, stderr=PIPE) #kinit.stdin.write('Admin@123$#\n'.encode()) #kinit.wait()

    来自:帮助中心

    查看更多 →

  • 数据投递概述

    安全云脑支持将数据实时投递至其他管道或其他 华为云产品 中,便于您存储数据或联合其它系统消费数据。配置数据投递后,安全云脑将定时将采集到的数据投递至其他管道或对应的云产品。 根据投递目的地选择操作场景: 投递日志数据至其他数据管道:投递日志数据到其他数据管道。 投递日志数据至OBS桶:投递日志数据到 对象存储服务 (Object

    来自:帮助中心

    查看更多 →

  • 从这里开始

    据自己的情况选择不同类型的数据源配置。具体内容可参考 数据源配置 2. 配置数据管道:通过配置数据管道,用户可指定数据存储的位置,如果需要,也可以在管道中实现对数据的实时清洗。具体内容可参考数据管道 3. 配置存储:通过配置存储,用户可指定存储管理的策略,比如设置温存储各自的老化周期。

    来自:帮助中心

    查看更多 →

  • PGXC_BULKLOAD_INFO

    direction text 导入导出业务类型,取值包括:gds to file、gds from file、gds to pipe、gds from pipe、copy from、copy to。 min_done_lines json 语句在所有DN上的最小行数。 max_done_lines

    来自:帮助中心

    查看更多 →

  • 下载日志

    安全分析”,进入安全分析页面。 图2 进入安全分析页面 在左侧数据空间导航栏中,单击数据空间名称,展开数据管道列后,再单击管道名称,右侧将显示管道数据的检索页面。 图3 管道数据页面 (可选)在管道数据检索页面,输入查询条件,选择时间下拉菜单中选择查询时间,并单击“查询/分析”。 下载日志。

    来自:帮助中心

    查看更多 →

  • 安全分析

    是用来构建并传输数据到服务端的逻辑概念,负责把数据放入消息队列。 订阅器 用于订阅安全云脑管道消息,一个管道可由多个订阅器进行订阅,安全云脑通过订阅器进行消息分发。 消费者 是用来接收并处理数据的运行实体,负责通过订阅器把安全云脑管道中的消息进行消费并处理。 消息队列 是数据存储和传输的实际容器。 威胁检测模型

    来自:帮助中心

    查看更多 →

  • 其他数据源的使用

    其他数据源的使用 其他类型数据源的数据管道的创建操作与IoTDA实时数据源、DIS数据源操作类似,因此不再详述。 父主题: 创建数据管道

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了