请输入搜索关键字 更多内容
  • CSV文件输入

    CS V文件输入 概述 “CSV文件输入”算子,用于导入所有能用文本编辑器打开的文件。 输入与输出 输入:文本文件。 输出:多个字段。 参数说明 表1 算子参数说明 参数 含义 类型 是否必填 默认值 分隔符 CSV文件的列分隔符,用于分隔每行的数据。 string 是 , 换行符

    来自:帮助中心

    查看更多 →

  • AXE模式输入分机号后提示“业务异常,通话即将挂断,请稍后重试”?

    AXE模式输入分机号后提示“业务异常,通话即将挂断,稍后重试”? 如果是在输入分机号后提示“业务异常,通话即将挂断,稍后重试”,可能没有输入分机号或输入的分机号未被正确传输到 隐私保护通话 平台。 请再次拨打X号码,听到输入分机号提示音后再次正确的输入分机号尝试。 如果是拨打X号

    来自:帮助中心

    查看更多 →

  • HMS位置服务

    description key 是 API密钥。 获取方式参考API Console操作指南进行配置后,登录 开发者联盟 获取AppKey。 周边搜索 搜索周边位置信息。 输入参数 用户配置周边搜索执行动作,相关参数说明如表2所示。 表2 周边搜索输入参数说明 参数 必填 说明 经度 是 用户定

    来自:帮助中心

    查看更多 →

  • 查询workflow输入

    Content-Type:application/json 响应消息 响应参数 响应中结构如表2所示 表2 流程输入结构 参数 参数类型 描述 inputs JSONObject,详细参见流程语法说明 流程输入信息。 响应示例 { "inputs": { "cpu": { "default":

    来自:帮助中心

    查看更多 →

  • 自拓展输入流

    自拓展输入流 用户可通过编写代码实现从想要的云生态或者开源生态获取数据,作为Flink作业的输入数据。 语法格式 1 2 3 4 5 6 7 CREATE SOURCE STREAM stream_id (attr_name attr_type (',' attr_name attr_type)*

    来自:帮助中心

    查看更多 →

  • MRS Kafka输入流

    Broker节点的hostname和IP联系Kafka服务的部署人员。如何添加IP 域名 映射,参见《 数据湖探索 用户指南》中修改主机信息章节。 Kafka是线下集群,需要通过增强型跨源连接功能将Flink作业与Kafka进行对接。且用户可以根据实际所需设置相应安全组规则。 如何建立增强型跨源连接,参考《 数据湖 探索用户指南》中增强型跨源连接章节。

    来自:帮助中心

    查看更多 →

  • 查询workflow输入

    get_workflow_inputs(workflow_id)查询流程输入。

    来自:帮助中心

    查看更多 →

  • 任务输入/输出参数

    type为edgecamera时,id不能重复,详细数据结构参见edge.data字段数据结构说明。 type为vis时,stream_name不能重复,详细数据结构参见vis.data字段数据结构说明。 type为edgerestful时,url不能重复,详细数据结构参见edgerestful.data字段数据结构说明。

    来自:帮助中心

    查看更多 →

  • 配置分析任务输入

    配置分析任务输入 点击目标分析任务,如下图1所示。 图1 目标分析任务 点击资产ID的修改图标进行修改,如下图2所示(只有属性引用类型为“引用其他资产属性”的输入参数需要配置资产ID)。 图2 资产ID 父主题: 工作台

    来自:帮助中心

    查看更多 →

  • CloudTable HBase输入流

    CloudTable的更多信息,参见《 表格存储服务 用户指南》。 前提条件 该场景作业需要运行在 DLI 的独享队列上,因此要与CloudTable HBase建立增强型跨源连接,且用户可以根据实际所需设置相应安全组规则。 如何建立增强型跨源连接,参考《数据湖探索用户指南》中增强型跨源连接章节。

    来自:帮助中心

    查看更多 →

  • MRS Kafka输入流

    Broker节点的hostname和IP联系Kafka服务的部署人员。如何添加IP域名映射,参见《数据湖探索用户指南》中修改主机信息章节。 Kafka是线下集群,需要通过增强型跨源连接功能将Flink作业与Kafka进行对接。且用户可以根据实际所需设置相应安全组规则。 如何建立增强型跨源连接,参考《数据湖探索用户指南》中增强型跨源连接章节。

    来自:帮助中心

    查看更多 →

  • 开源Kafka输入流

    Broker节点的hostname和IP联系Kafka服务的部署人员。如何添加IP域名映射,参见《数据湖探索用户指南》中修改主机信息章节。 Kafka是线下集群,需要通过增强型跨源连接功能将Flink作业与Kafka进行对接。且用户可以根据实际所需设置相应安全组规则。 如何建立增强型跨源连接,参考《数据湖探索用户指南》中增强型跨源连接章节。

    来自:帮助中心

    查看更多 →

  • EdgeHub输入流(EOS)

    能力,联动边缘和云端的数据,同时,在云端提供统一的设备/应用监控、日志采集等运维能力,为企业提供完整的边缘计算解决方案。IEF的更多信息,参见《智能边缘平台用户指南》。 仅Flink 1.7版本适配边缘作业场景,且Flink 1.7 EOS。DLI后续版本不再提供边缘作业场景的语法参考。

    来自:帮助中心

    查看更多 →

  • 输入输出定义

    输入输出定义 连接参数 连接器无需认证,无连接参数。 定义输入 输入参数 此触发事件在流类型执行动作中使用,它的输入是在创建流类型执行动作的第二步“配置输入”中定义的,在该触发事件中单击右下角“mock数据”可以填写数据用于mock测试。 输出参数 和输入参数相同。 定义输出 输入参数

    来自:帮助中心

    查看更多 →

  • 数字输入框

    择“公式编辑”时,才显示该参数。公式计算可选择表单内的组件作为参数(单行文本输入、数字输入框、日期选择器、日期范围选择器、单选、复选框、下拉选择框、地址,子表单、评分和开关)。关于公式计算的详细介绍,参见如何使用公式编辑?。 数据联动设置:调用另一个表单中满足条件的数据,根据其

    来自:帮助中心

    查看更多 →

  • 自拓展输入流

    自拓展输入流 用户可通过编写代码实现从想要的云生态或者开源生态获取数据,作为Flink作业的输入数据。 语法格式 1 2 3 4 5 6 7 CREATE SOURCE STREAM stream_id (attr_name attr_type (',' attr_name attr_type)*

    来自:帮助中心

    查看更多 →

  • 固定宽度文件输入

    固定宽度文件输入 概述 “固定宽度文件输入”算子,将文件的每一行,按可配置长度的字符或字节,转换成多个输入字段。 输入与输出 输入:文本文件 输出:多个字段 参数说明 表1 算子参数说明 参数 含义 类型 是否必填 默认值 换行符 用户根据数据实际情况,填写字符串作为换行符。支持任何字符串。默认使用操作系统的换行符。

    来自:帮助中心

    查看更多 →

  • 模型输入目录规范

    模型输入目录规范 在本地开发模型后或在ModelArts开发并转换模型后,针对Ascend芯片,其模型输入目录需要满足一定的规范要求。华为HiLens当前对模型输入目录的要求如下: 针对基于Caffe框架的模型,执行模型导入(转换)时,其输入目录需符合如下规范。 | |---xxxx

    来自:帮助中心

    查看更多 →

  • 数字输入框

    供用户实现,来扩展组件的交互。整个页面有加载(on-load)事件,该事件在页面渲染完成后执行,可进行数据初始化操作。更多关于事件的介绍,参见事件说明。 父主题: 基础组件

    来自:帮助中心

    查看更多 →

  • CloudTable HBase输入流

    CloudTable的更多信息,参见《 表格存储 服务用户指南》。 前提条件 该场景作业需要运行在DLI的独享队列上,因此要与CloudTable HBase建立增强型跨源连接,且用户可以根据实际所需设置相应安全组规则。 如何建立增强型跨源连接,参考《数据湖探索用户指南》中增强型跨源连接章节。

    来自:帮助中心

    查看更多 →

  • 开源Kafka输入流

    Broker节点的hostname和IP联系Kafka服务的部署人员。如何添加IP域名映射,参见《数据湖探索用户指南》中修改主机信息章节。 Kafka是线下集群,需要通过增强型跨源连接功能将Flink作业与Kafka进行对接。且用户可以根据实际所需设置相应安全组规则。 如何建立增强型跨源连接,参考《数据湖探索用户指南》中增强型跨源连接章节。

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了