更新时间:2023-12-25 GMT+08:00
分享

执行作业

执行横向作业

横向训练型作业在作业配置页面单击“保存”按钮后,单击“提交审批”按钮,等完成审批再单击“执行”按钮。

横向评估型作业在作业配置页面单击“保存”按钮后,可以直接点击“执行”按钮。

  1. 用户登录进入计算节点页面。
  2. 在左侧导航树上依次选择作业管理 > 可信联邦学习,打开可信联邦学习作业页面。
  3. 可信联邦学习页面,查找待执行的作业,单击“执行”,系统自动跳转到“历史作业”页面。

    图1 执行作业

  4. 等待执行完成,在“历史作业”页面查看对应的执行结果、作业报告。作业报告展示作业详细信息,包括作业输入条件、输出结果、执行环境、合作方信息和模型贡献度等。

    图2 展示作业报告

执行纵向作业

  1. 用户登录进入计算节点页面。
  2. 在左侧导航树上依次选择作业管理 > 可信联邦学习,打开可信联邦学习作业页面。
  3. 可信联邦学习页面,查找待执行的纵向作业,单击“执行”

    图3 执行作业

  4. 在弹出的界面配置执行参数,配置执行参数可选择常规配置与自定义配置。填写完作业参数,单击“确定”即可开始训练作业。

    • 常规配置:通过界面点选算法使用的常规参数,具体支持的参数请参考表1
      表1 常规配置参数

      算法类型

      参数名

      参数描述

      XGBoost

      学习率

      控制权重更新的幅度,以及训练的速度和精度。取值范围为0~1的小数。

      树数量

      定义XGBoost算法中决策树的数量,一个样本的预测值是多棵树预测值的加权和。取值范围为1~50的整数。

      树深度

      定义每棵决策树的深度,根节点为第一层。取值范围为1~10的整数。

      切分点数量

      定义每个特征切分点的数量,数量越多,准确率越高,计算时间越长。取值范围为5~10的整数。

      分类阈值

      区分正负例的得分阈值。

      逻辑回归/FiBiNET

      学习率

      控制权重更新的幅度,影响训练收敛速度和模型精度,取值范围为0~1。

      迭代次数

      完成全部样本训练的次数,取值为正整数。

      批大小

      单次训练使用的样本数,取值为正整数。

      分类阈值

      区分正负例的得分阈值

    • 自定义配置: 通过json格式的文本配置更多高级参数,具体支持的参数请参考表2
      表2 自定义配置参数

      参数

      是否必选

      参数类型

      描述

      predict_threshold

      Float

      预测阈值,最小值0,最大值1

      learning_rate

      Float

      学习率,最小值0,最大值1

      batch_size

      Integer

      批大小,最小值1

      epoch

      Integer

      迭代次数,最小值1

      tree_num

      Integer

      树数量,最小值1

      tree_depth

      Integer

      树深度,最小值1

      split_num

      Integer

      切分点数量,最小值5

      discrete_embedding_size

      Integer

      离散特征embedding的维度,最小值4

      multihot_embedding_size

      Integer

      multihot特征embedding的维度,最小值4

      mlp_dims

      Array of integers

      多层感知机每层的节点数

      reduction_ratio

      Integer

      senet层压缩比例,最小值2

      save_format

      String

      模型保存格式

      loss_function

      String

      损失函数

      loss_param

      String

      损失函数参数json字符串

    启动作业后会生成一条新的历史作业记录。

  5. 等待执行完成,在“历史作业”页面查看更详细的作业运行信息,包括执行结果、作业报告。
分享:

    相关文档

    相关产品