华为云11.11 AI&大数据分会场

高精度,多场景,快响应,AI&大数据助力企业降本增效

 
 

    model_id 更多内容
  • 删除模型

    /v1/{project_id}/drug-models/{model_id} 表1 路径参数 参数 是否必选 参数类型 描述 project_id 是 String 项目ID,您可以从获取项目ID中获取。 最小长度:1 最大长度:128 model_id 是 String 模型id。 最小长度:1

    来自:帮助中心

    查看更多 →

  • 更新药物模型

    /v1/{project_id}/drug-models/{model_id} 表1 路径参数 参数 是否必选 参数类型 描述 project_id 是 String 项目ID,您可以从获取项目ID中获取。 最小长度:1 最大长度:128 model_id 是 String 模型id。 最小长度:1

    来自:帮助中心

    查看更多 →

  • 删除AI应用

    SDK代码示例调试功能。 URI DELETE /v1/{project_id}/models/{model_id} 表1 路径参数 参数 是否必选 参数类型 描述 model_id 是 String 需要删除的AI应用ID。 project_id 是 String 用户项目ID。获取方法请参见获取项目ID和名称。

    来自:帮助中心

    查看更多 →

  • 部署在线服务

    time_unit='HOURS', duration=1)] # (可选)设置在线服务运行时间 ) 参数“model_id”代表将部署成在线服务的模型。“model_id”可以通过查询模型列表或者ModelArts管理控制台获取。 部署服务到专属资源池 from modelarts

    来自:帮助中心

    查看更多 →

  • 模型管理权限

    DELETE /v1/{project_id}/models/{model_id} modelarts:model:delete - √ √ 查询模型详情 GET /v1/{project_id}/models/{model_id} modelarts:model:get - √ √ 父主题:

    来自:帮助中心

    查看更多 →

  • 删除资产模型

    DELETE /v1/{project_id}/asset-models/{model_id} 表1 路径参数 参数 是否必选 参数类型 描述 project_id 是 String 项目ID 最大长度:128 model_id 是 String 模型ID 请求参数 表2 请求Header参数

    来自:帮助中心

    查看更多 →

  • 使用llm-compressor工具量化

    修改examples/quantizing_moe/deepseek_moe_w8a8_int8.py中的代码: 1)若本地已有权重,请将MODEL_ID修改为权重路径; MODEL_ID = "deepseek-ai/DeepSeek-Coder-V2-Lite-Instruct" 2)若量化Deep

    来自:帮助中心

    查看更多 →

  • 创建训练作业参数

    py”。应与app_url一同出现,若填入model_id则app_url/boot_file_url和engine_id无需填写。 model_id 是 Long 训练作业的模型ID。请通过查询预置算法接口获取model_id。填入model_id后app_url/boot_file_url和engine_id不需填写。

    来自:帮助中心

    查看更多 →

  • Show Result接口

    String the generated_snippet language String code language model_id String model_id record_time String record_time request_id String the unique

    来自:帮助中心

    查看更多 →

  • 更新训练作业参数

    py”。应与app_url一同出现,若填入model_id则app_url/boot_file_url和engine_id无需填写。 model_id 是 Long 训练作业的模型ID。请通过查询预置算法接口获取model_id。填入model_id后app_url/boot_file_url和engine_id不需填写。

    来自:帮助中心

    查看更多 →

  • 更新服务配置

    置成running(启动)。 表2 predictor configs结构 参数 是否必选 参数类型 描述 model_id 是 String 模型ID。“model_id”可以通过查询模型列表或者ModelArts管理控制台获取。 weight 是 Integer 权重百分比,

    来自:帮助中心

    查看更多 →

  • 查询服务详情

    部署进度,当状态是deploying时,返回此参数。 表2 real-time config结构 参数 参数类型 描述 model_id String 模型ID。“model_id”可以通过查询模型列表或者ModelArts管理控制台获取。 model_name String 模型名称。 model_version

    来自:帮助中心

    查看更多 →

  • 创建训练作业版本

    训练作业选择的引擎规格ID,默认为“1”。填入model_id后app_url/boot_file_url和engine_id无需填写。请从查询作业引擎规格接口获取引擎规格ID。 model_id 是 Long 训练作业的内置模型ID。请通过查询预置算法接口获取model_id。填入model_id后app_ur

    来自:帮助中心

    查看更多 →

  • 转换逻辑模型为物理模型

    results?operation_type=TRANSFORM_ LOG IC_MODEL&operation_id={model_id},其中{model_id}为本接口的路径参数。 约束与限制: 1、target_model_id与target_model_name不对应时,t

    来自:帮助中心

    查看更多 →

  • 获取难例配置

    com/nali/", "model_algorithm" : "image_classification", "model_id" : "073c4c8674164307ae300b713a4a050c", "model_name" : "model-framework5"

    来自:帮助中心

    查看更多 →

  • 创建训练作业

    训练作业选择的引擎规格ID,默认为“1”。填入model_id后app_url/boot_file_url和engine_id无需填写。请从查询作业引擎规格接口获取引擎规格ID。 model_id 是 Long 训练作业的内置模型ID。请通过查询预置算法接口获取model_id。填入model_id后app_ur

    来自:帮助中心

    查看更多 →

  • 使用GPTQ量化

    AutoTokenizer, GPTQConfig model_id = "meta-llama/CodeLlama-34b-hf" tokenizer = AutoTokenizer.from_pretrained(model_id) gptq_config = GPTQConfig(bits=8

    来自:帮助中心

    查看更多 →

  • 使用GPTQ量化

    AutoTokenizer, GPTQConfig model_id = "meta-llama/CodeLlama-34b-hf" tokenizer = AutoTokenizer.from_pretrained(model_id) gptq_config = GPTQConfig(bits=8

    来自:帮助中心

    查看更多 →

  • 使用GPTQ量化

    AutoTokenizer, GPTQConfig model_id = "meta-llama/CodeLlama-34b-hf" tokenizer = AutoTokenizer.from_pretrained(model_id) gptq_config = GPTQConfig(bits=8

    来自:帮助中心

    查看更多 →

  • 使用GPTQ量化

    AutoTokenizer, GPTQConfig model_id = "meta-llama/CodeLlama-34b-hf" tokenizer = AutoTokenizer.from_pretrained(model_id) gptq_config = GPTQConfig(bits=8

    来自:帮助中心

    查看更多 →

  • 使用GPTQ量化

    AutoTokenizer, GPTQConfig model_id = "meta-llama/CodeLlama-34b-hf" tokenizer = AutoTokenizer.from_pretrained(model_id) gptq_config = GPTQConfig(bits=8

    来自:帮助中心

    查看更多 →

共104条
看了本文的人还看了