获取输入参数 更多内容
  • 获取指定实例的参数模板

    Array of objects 参数对象,用户基于默认参数模板自定义的参数配置。 详情请参见表3。 表3 configuration_parameters字段数据结构说明 名称 参数类型 说明 name String 参数名称。 value String 参数值。 restart_required

    来自:帮助中心

    查看更多 →

  • 获取参数模板列表

    objects 参数解释: 参数模板信息,具体参数请参考表3。 count Integer 参数解释: 总记录数。 取值范围: [0, 2^31-1],取决于实际查询大小。 表3 configurations字段数据结构说明 参数 参数类型 描述 id String 参数解释: 参数组ID。参数模板的唯一标识。

    来自:帮助中心

    查看更多 →

  • 获取参数配置任务列表

    String 参数解释: 项目ID。获取方法请参见获取项目ID和名称。 约束限制: 不涉及 取值范围: 获取方法请参见获取项目ID和名称。 默认取值: 不涉及 cluster_id 是 String 参数解释: 指定查询集群ID。 约束限制: 不涉及 取值范围: 获取方法请参见获取集群ID。

    来自:帮助中心

    查看更多 →

  • 获取参数模板列表

    获取参数模板列表 功能介绍 获取参数模板列表,包括所有数据库的默认参数模板和用户创建的参数模板。 调用接口前,您需要了解API 认证鉴权。 调试 您可以在 API Explorer 中调试该接口。 接口约束 支持的数据库引擎:MySQL、PostgreSQL、Microsoft SQL

    来自:帮助中心

    查看更多 →

  • 查询workflow输入

    查询workflow输入 功能介绍 查询特定流程输入。 URI GET /v1/workflows/{workflow_id}/inputs 表1 参数说明 参数 是否必选 参数类型 描述 workflow_id 是 String 需要查询流程的id,即创建workflow的返回值。

    来自:帮助中心

    查看更多 →

  • 自拓展输入流

    自拓展输入流 用户可通过编写代码实现从想要的云生态或者开源生态获取数据,作为Flink作业的输入数据。 语法格式 1 2 3 4 5 6 7 CREATE SOURCE STREAM stream_id (attr_name attr_type (',' attr_name attr_type)*

    来自:帮助中心

    查看更多 →

  • MRS Kafka输入流

    MRS Kafka输入流 功能描述 创建source流从Kafka获取数据,作为作业的输入数据。 Apache Kafka是一个快速、可扩展的、高吞吐、可容错的分布式发布订阅消息系统,具有高吞吐量、内置分区、支持数据副本和容错的特性,适合在大规模消息处理场景中使用。MRS基于Apache

    来自:帮助中心

    查看更多 →

  • 查询workflow输入

    get_workflow_inputs(workflow_id)查询流程输入。

    来自:帮助中心

    查看更多 →

  • 配置分析任务输入

    配置分析任务输入 点击目标分析任务,如下图1所示。 图1 目标分析任务 点击资产ID的修改图标进行修改,如下图2所示(只有属性引用类型为“引用其他资产属性”的输入参数需要配置资产ID)。 图2 资产ID 父主题: 工作台

    来自:帮助中心

    查看更多 →

  • CloudTable HBase输入流

    CloudTable HBase输入流 功能描述 创建source流从 表格存储服务 CloudTable的HBase中获取数据,作为作业的输入数据。HBase是一个稳定可靠,性能卓越、可伸缩、面向列的分布式云存储系统,适用于海量数据存储以及分布式计算的场景,用户可以利用HBase搭

    来自:帮助中心

    查看更多 →

  • MRS Kafka输入流

    MRS Kafka输入流 功能描述 创建source流从Kafka获取数据,作为作业的输入数据。 Apache Kafka是一个快速、可扩展的、高吞吐、可容错的分布式发布订阅消息系统,具有高吞吐量、内置分区、支持数据副本和容错的特性,适合在大规模消息处理场景中使用。MRS基于Apache

    来自:帮助中心

    查看更多 →

  • 开源Kafka输入流

    开源Kafka输入流 功能描述 创建source流从Kafka获取数据,作为作业的输入数据。 Apache Kafka是一个快速、可扩展的、高吞吐、可容错的分布式发布订阅消息系统,具有高吞吐量、内置分区、支持数据副本和容错的特性,适合在大规模消息处理场景中使用。 前提条件 Kaf

    来自:帮助中心

    查看更多 →

  • EdgeHub输入流(EOS)

    EdgeHub输入流(EOS) 功能描述 创建边缘作业source流,从EdgeHub中获取数据。用户数据写入EdgeHub中,Flink边缘作业从中读取数据,作为流计算的数据输入。 适用于物联网IOT场景,将实时流计算能力从云端延伸到边缘,在边缘快速实现对流数据实时、快速、准确

    来自:帮助中心

    查看更多 →

  • 输入输出定义

    输入输出定义 连接参数 连接器无需认证,无连接参数。 定义输入 输入参数 此触发事件在流类型执行动作中使用,它的输入是在创建流类型执行动作的第二步“配置输入”中定义的,在该触发事件中单击右下角“mock数据”可以填写数据用于mock测试。 输出参数输入参数相同。 定义输出 输入参数

    来自:帮助中心

    查看更多 →

  • 数字输入框

    条数据。 图3 设置数字输入框数据联动 输入框最小值:输入数字的最小值。 输入框最大值:输入数字的最大值。 当数字输入框为数据联动时,最大/最小值按组件默认配置,即最大值为253-1。 最大值不建议超过最大安全整数,若需填写更大数值,建议使用单行文本输入。 展示小数位:设置数字小数点后的位数。

    来自:帮助中心

    查看更多 →

  • 自拓展输入流

    自拓展输入流 用户可通过编写代码实现从想要的云生态或者开源生态获取数据,作为Flink作业的输入数据。 语法格式 1 2 3 4 5 6 7 CREATE SOURCE STREAM stream_id (attr_name attr_type (',' attr_name attr_type)*

    来自:帮助中心

    查看更多 →

  • 固定宽度文件输入

    固定宽度文件输入 概述 “固定宽度文件输入”算子,将文件的每一行,按可配置长度的字符或字节,转换成多个输入字段。 输入与输出 输入:文本文件 输出:多个字段 参数说明 表1 算子参数说明 参数 含义 类型 是否必填 默认值 换行符 用户根据数据实际情况,填写字符串作为换行符。支持任何字符串。默认使用操作系统的换行符。

    来自:帮助中心

    查看更多 →

  • 模型输入目录规范

    模型输入目录规范 在本地开发模型后或在ModelArts开发并转换模型后,针对Ascend芯片,其模型输入目录需要满足一定的规范要求。华为HiLens当前对模型输入目录的要求如下: 针对基于Caffe框架的模型,执行模型导入(转换)时,其输入目录需符合如下规范。 | |---xxxx

    来自:帮助中心

    查看更多 →

  • 数字输入框

    数字输入框 数字输入框组件用于记录数字类型的数据信息,例如数量、年龄、库存、金额等。数字输入框组件支持输入数字的最大有效长度为18位。如果有超过18位数字的输入要求,建议替换为输入框组件。 在表单开发页面,从“基础组件”中,拖拽“数字输入框”组件至表单设计区域,如图1。 图1 数字输入框

    来自:帮助中心

    查看更多 →

  • CloudTable HBase输入流

    CloudTable HBase输入流 功能描述 创建source流从 表格存储 服务CloudTable的HBase中获取数据,作为作业的输入数据。HBase是一个稳定可靠,性能卓越、可伸缩、面向列的分布式云存储系统,适用于海量数据存储以及分布式计算的场景,用户可以利用HBase搭

    来自:帮助中心

    查看更多 →

  • 开源Kafka输入流

    开源Kafka输入流 功能描述 创建source流从Kafka获取数据,作为作业的输入数据。 Apache Kafka是一个快速、可扩展的、高吞吐、可容错的分布式发布订阅消息系统,具有高吞吐量、内置分区、支持数据副本和容错的特性,适合在大规模消息处理场景中使用。 前提条件 Kaf

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了