表单输入长度 更多内容
  • 表单功能

    表单功能 操作场景 提供表单功能,管理员可编辑表单项,展示表单在网站上,访客填写表单,即可收集信息,例如用于报名、娱乐场地预定等场景。 添加表单项 在后台管理或设计页面均支持添加表单。 添加表单,需要自定义编辑表单标题、表单样式、表单项。 图1 添加表单 后台管理提供了多种类型的表单项,每个表单项都支持自定义项名称。

    来自:帮助中心

    查看更多 →

  • 表单触发

    单击“规则配置”,在左侧栏选择“触发方式 > 表单触发”,选择触发表单和设置运行动作。如表单触发。 图1 表单触发 选择表单:选择需要触发的表单表单触发的开始过程,开始过程提供仅当创建记录时、仅当修改记录时、创建或修改记录时和仅当删除记录时。 设置运行动作:当被选择的表单字段满足设置条件时,执行动作。

    来自:帮助中心

    查看更多 →

  • 表单排序

    表单排序 表单创建后,在表单开发页面,鼠标左键选中表单直接上下拖动,可调节表单排序。 表单排序 参考登录零代码工作台中操作,登录AstroZero零代码工作台。 在全部应用中,单击应用后的“...”,选择“编辑”,进入编辑应用页面。 鼠标左键选中表单直接上下拖动,即可调节表单排序。

    来自:帮助中心

    查看更多 →

  • 设置表单

    在编辑表单页面,单击页面右侧的“表单设置”。 图1 表单设置 数据标题:为快速的辨识表单数据,可为表单中的每一条数据设置简短的标识,适用于关联记录,查看表单详情等场景。例如,在团队成员表中,可以使用成员姓名作为“数据标题”字段。 选择字段:设置标题字段。 字段别名:为表单字段设置

    来自:帮助中心

    查看更多 →

  • 编辑表单

    编辑表单 使用说明 表单创建后,若表单不符合预期,可再次编辑表单。 操作步骤 参考如何登录AstroFlow中操作,登录AstroFlow界面。 在“我的应用 > 全部应用”中,单击对应的应用,进入应用。 选择对应的表单,单击“编辑表单”,进入表单设计页面。 参考如何创建一个表单中操作,重新设计表单。

    来自:帮助中心

    查看更多 →

  • 子表单

    表单表单是一种高级的容器组件,支持在创建后向内部加入多种组件。例如,在填写一份表单时,有时会录入多条相同类型的数据,这些数据的行数不固定,但都属于同一种业务规则数据,此时可以在表单中设计一个子表单来规范其录入。如在创建员工信息表中,添加多段工作经历,主表为员工信息表,子表单为员工多段工作经历。

    来自:帮助中心

    查看更多 →

  • 文本加密

    文本类型:该输入框文本类型,支持输入框和密码两种类型。 默认值:输入框中默认显示的值,字段没有配置值时,会取默认值。 验证:对字段做一些限制。 必填:字段是否必填。勾选“必填”,页面展示会有提示必填。 可清空:是否可一键清空输入框内容,默认关闭。 最大字符长度输入框取值最大字符长度。

    来自:帮助中心

    查看更多 →

  • 查询workflow输入

    查询workflow输入 功能介绍 查询特定流程输入。 URI GET /v1/workflows/{workflow_id}/inputs 表1 参数说明 参数 是否必选 参数类型 描述 workflow_id 是 String 需要查询流程的id,即创建workflow的返回值。

    来自:帮助中心

    查看更多 →

  • 自拓展输入流

    自拓展输入流 用户可通过编写代码实现从想要的云生态或者开源生态获取数据,作为Flink作业的输入数据。 语法格式 1 2 3 4 5 6 7 CREATE SOURCE STREAM stream_id (attr_name attr_type (',' attr_name attr_type)*

    来自:帮助中心

    查看更多 →

  • MRS Kafka输入流

    MRS Kafka输入流 功能描述 创建source流从Kafka获取数据,作为作业的输入数据。 Apache Kafka是一个快速、可扩展的、高吞吐、可容错的分布式发布订阅消息系统,具有高吞吐量、内置分区、支持数据副本和容错的特性,适合在大规模消息处理场景中使用。MRS基于Apache

    来自:帮助中心

    查看更多 →

  • 源数据库索引长度检查

    不通过原因:源数据库存在超过目标库索引列长度限制的索引。 处理建议:1. 在迁移对象中去除这张表。2. 修改索引长度。 MySQL迁移、同步、灾备场景 表2 源数据库索引长度检查 预检查项 源数据库存在超过目标库索引列长度限制的索引。 描述 源数据库存在超过目标库索引列长度限制的索引,则导致迁移失败。

    来自:帮助中心

    查看更多 →

  • 查询workflow输入

    get_workflow_inputs(workflow_id)查询流程输入。

    来自:帮助中心

    查看更多 →

  • 任务输入/输出参数

    任务输入/输出参数 task.input(任务输入参数) task.input参数说明 参数 是否必选 类型 说明 type 是 String 视频数据的输入类型: obs:表示从华为云OBS中读取视频数据。 url:表示从指定的URL地址中读取视频数据。 edgecamera:表示从指定的边缘摄像头读取数据。

    来自:帮助中心

    查看更多 →

  • 配置分析任务输入

    配置分析任务输入 点击目标分析任务,如下图1所示。 图1 目标分析任务 点击资产ID的修改图标进行修改,如下图2所示(只有属性引用类型为“引用其他资产属性”的输入参数需要配置资产ID)。 图2 资产ID 父主题: 工作台

    来自:帮助中心

    查看更多 →

  • CloudTable HBase输入流

    CloudTable HBase输入流 功能描述 创建source流从 表格存储服务 CloudTable的HBase中获取数据,作为作业的输入数据。HBase是一个稳定可靠,性能卓越、可伸缩、面向列的分布式云存储系统,适用于海量数据存储以及分布式计算的场景,用户可以利用HBase搭

    来自:帮助中心

    查看更多 →

  • MRS Kafka输入流

    MRS Kafka输入流 功能描述 创建source流从Kafka获取数据,作为作业的输入数据。 Apache Kafka是一个快速、可扩展的、高吞吐、可容错的分布式发布订阅消息系统,具有高吞吐量、内置分区、支持数据副本和容错的特性,适合在大规模消息处理场景中使用。MRS基于Apache

    来自:帮助中心

    查看更多 →

  • 开源Kafka输入流

    开源Kafka输入流 功能描述 创建source流从Kafka获取数据,作为作业的输入数据。 Apache Kafka是一个快速、可扩展的、高吞吐、可容错的分布式发布订阅消息系统,具有高吞吐量、内置分区、支持数据副本和容错的特性,适合在大规模消息处理场景中使用。 前提条件 Kaf

    来自:帮助中心

    查看更多 →

  • EdgeHub输入流(EOS)

    EdgeHub输入流(EOS) 功能描述 创建边缘作业source流,从EdgeHub中获取数据。用户数据写入EdgeHub中,Flink边缘作业从中读取数据,作为流计算的数据输入。 适用于物联网IOT场景,将实时流计算能力从云端延伸到边缘,在边缘快速实现对流数据实时、快速、准确

    来自:帮助中心

    查看更多 →

  • 固定宽度文件输入

    yyMMdd HH:mm:ss”。 长度:配置字段长度,字段值实际长度太长则按配置的长度截取,“类型”为“CHAR”时实际长度不足则空格补齐,“类型”为“VARCHAR”时实际长度不足则不补齐。 map 是 无 数据处理规则 按照输入字段的长度依次截取源文件,生成字段。 当字段的

    来自:帮助中心

    查看更多 →

  • 输入输出定义

    输入输出定义 连接参数 连接器无需认证,无连接参数。 定义输入 输入参数 此触发事件在流类型执行动作中使用,它的输入是在创建流类型执行动作的第二步“配置输入”中定义的,在该触发事件中单击右下角“mock数据”可以填写数据用于mock测试。 输出参数 和输入参数相同。 定义输出 输入参数

    来自:帮助中心

    查看更多 →

  • 自拓展输入流

    自拓展输入流 用户可通过编写代码实现从想要的云生态或者开源生态获取数据,作为Flink作业的输入数据。 语法格式 1 2 3 4 5 6 7 CREATE SOURCE STREAM stream_id (attr_name attr_type (',' attr_name attr_type)*

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了