ef dataset 更多内容
  • 查询处理任务列表

    指定查询的数据源所在路径。可选值如下: 如果type是OBS,source为OBS路径; 如果type是TASK,source为任务ID; 如果type是DATASET,source为dataset_id; 如果type是CUSTOM且是资源租户调用,source为真实用户的project_id, 否则不需要这个字段

    来自:帮助中心

    查看更多 →

  • 推理性能测试

    d_alpaca/blob/main/alpaca_data.json 方法二:使用generate_dataset.py脚本生成数据集方法: generate_dataset.py脚本通过指定输入输出长度的均值和标准差,生成一定数量的正态分布的数据。具体操作命令如下,可以根据参数说明修改参数。

    来自:帮助中心

    查看更多 →

  • 更新训练作业参数

    训练作业的OBS数据存储位置。 dataset_id 否 String 训练作业的数据集ID。应与dataset_version_id同时出现,但不可与inputs同时出现。 dataset_version_id 否 String 训练作业的数据集版本ID。应与dataset_id同时出现,但不可与inputs同时出现。

    来自:帮助中心

    查看更多 →

  • 删除评论

    /softcomai/datalake/v1.0/dataset/comment/ 参数说明 无。 请求 请求样例 DELETE https://ipaddr:port/dataset/softcomai/datalake/v1.0/dataset/comment/ { "datasetId":

    来自:帮助中心

    查看更多 →

  • 删除数据集标注版本

    URI DELETE /v2/{project_id}/datasets/{dataset_id}/versions/{version_id} 表1 路径参数 参数 是否必选 参数类型 描述 dataset_id 是 String 数据集ID。 project_id 是 String

    来自:帮助中心

    查看更多 →

  • 删除团队标注任务

    DELETE /v2/{project_id}/datasets/{dataset_id}/workforce-tasks/{workforce_task_id} 表1 路径参数 参数 是否必选 参数类型 描述 dataset_id 是 String 数据集ID。 project_id 是

    来自:帮助中心

    查看更多 →

  • 同步数据集

    例调试功能。 URI POST /v2/{project_id}/datasets/{dataset_id}/sync-data 表1 路径参数 参数 是否必选 参数类型 描述 dataset_id 是 String 数据集ID。 project_id 是 String 用户项目

    来自:帮助中心

    查看更多 →

  • 删除权限

    /v1/{project_id}/datasets/{dataset_id}/permissions/{permission_id} 表1 路径参数 参数 是否必选 参数类型 描述 project_id 是 String 项目ID。 获取方法请参考获取项目ID。 dataset_id 是 String 数据集ID。

    来自:帮助中心

    查看更多 →

  • 执行纵向联邦分箱和IV计算作业

    VFL_ID_TRUNCATION VFL_FEATURE_SELECTION VFL_SAMPLE_ALIGNMENT VFL_PREDICT label_dataset 是 String 标签数据集,最大值100 label_agent 是 String 标签方 可信计算 节点,最大值100 job_name

    来自:帮助中心

    查看更多 →

  • 创建数据集导出任务

    "export_dest" : "NEW_DATASET", "export_new_dataset_name" : "dataset-export-test", "export_new_dataset_work_path" : "/test-obs/classify/output/"

    来自:帮助中心

    查看更多 →

  • 打开/关闭权限

    /v1/{project_id}/datasets/{dataset_id}/permissions/config 表1 路径参数 参数 是否必选 参数类型 描述 project_id 是 String 项目ID。 dataset_id 是 String 数据集ID。 请求参数 表2

    来自:帮助中心

    查看更多 →

  • 查询数据处理任务的版本详情

    工作路径。可选值如下: 如果type是OBS,source为OBS路径。 如果type是DATASET,source为数据集ID。 type String 工作路径的类型。可选值如下: OBS:OBS路径 DATASET:数据集 version_id String 数据集的版本。 version_name

    来自:帮助中心

    查看更多 →

  • 停止智能任务

    。 URI POST /v2/{project_id}/datasets/{dataset_id}/tasks/{task_id}/stop 表1 路径参数 参数 是否必选 参数类型 描述 dataset_id 是 String 数据集ID。 project_id 是 String

    来自:帮助中心

    查看更多 →

  • CCE集群

    del" 训练产物目录 TMP_RESULT_PATH= "/tmp/result" 数据集目录 DATASET_PATH=" ['/tmp/data/dataset/dataset-0']" 评测任务 评测结果目录 TMP_RESULT_PATH= "/tmp/result" 模型版本文件目录

    来自:帮助中心

    查看更多 →

  • 自定义镜像规范

    : # 加载数据集 dataset_path = os.getenv(ENV_AG_DATASET_DIR) dataset = load_dataset("imagefolder", data_dir=dataset_path) # 数据增强

    来自:帮助中心

    查看更多 →

  • 查询训练作业版本列表

    \"0\"],\"interval\":1}", "dataset_name": "dataset-test", "dataset_version_name": "dataset-version-test", "start_time":

    来自:帮助中心

    查看更多 →

  • Spark Python API接口介绍

    numPartitions) 当有两个KV的dataset(K,V)和(K,W),返回的是(K,(V,W))的dataset,numPartitions为并发的任务数。 cogroup(other, numPartitions) 将当有两个key-value对的dataset(K,V)和(K,W),返回的是(K

    来自:帮助中心

    查看更多 →

  • Spark Java API接口介绍

    scala.Tuple2<V,W>> join(JavaPairRDD<K,W> other) 当有两个KV的dataset(K,V)和(K,W),返回的是(K,(V,W))的dataset,numTasks为并发的任务数。 JavaPairRDD<K,scala.Tuple2<Iterable<V>

    来自:帮助中心

    查看更多 →

  • Spark Scala API接口介绍

    W)][, numPartitions: Int]): RDD[(K, (V, W))] 当有两个KV的dataset(K,V)和(K,W),返回的是(K,(V,W))的dataset,numPartitions为并发的任务数。 cogroup[W](other: RDD[(K, W)]

    来自:帮助中心

    查看更多 →

  • Spark Python接口介绍

    numPartitions) 当有两个KV的dataset(K,V)和(K,W),返回的是(K,(V,W))的dataset,numPartitions为并发的任务数。 cogroup(other, numPartitions) 将当有两个key-value对的dataset(K,V)和(K,W),返回的是(K

    来自:帮助中心

    查看更多 →

  • 样例数据导入模型训练服务

    datasets import samples samples.list_dataset() samples.list_dataset_entities('samples') samples.load_dataset('samples', 'rca_forest_kpi') 父主题: 硬盘故障根因分析学件

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了