量化投资python 更多内容
  • COST05-02 建立可以量化的优化目标

    COST05-02 建立可以量化的优化目标 风险等级 高 关键策略 成本优化是一项投资,而且是一个需要持续进行的流程。为了向公司或者组织的决策者、利益相关方说明投资的价值,就需要对成本优化自身,尤其是其执行的目标进行量化。从而在持续的优化活动中,都可以从决策者或者利益相关者那里得

    来自:帮助中心

    查看更多 →

  • Python

    Python 样例 语音验证码场景API、呼叫状态通知API、话单通知API 环境要求 Python 3.0及以上版本。 引用库 requests 2.18.1 请自行下载安装Python 3.x,并完成环境配置。 打开命令行窗口,执行pip install requests命令。

    来自:帮助中心

    查看更多 →

  • Python

    Python 样例 发送短信(示例1)、发送分批短信(示例1) 发送短信(示例2)、发送分批短信(示例2) 接收状态报告、接收上行短信 环境要求 基于Python 3.7.0版本,要求Python 3.7及以上版本。 引用库 requests 2.18.1(仅示例1引用) 请自行下载安装Python

    来自:帮助中心

    查看更多 →

  • Python

    n或者python3,查看Python是否已经安装。python命令只能查询Python 2.x版本,python3命令只能查询Python 3.x版本,如果无法确认Python版本,请分别输入两个命令查看结果。 以Python 3.x为例,得到如下回显,说明Python已安装。

    来自:帮助中心

    查看更多 →

  • Python

    2018.3.5或以上版本,可至IntelliJ IDEA官方网站下载。 获取并安装Python安装包(可使用2.7.9+或3.X,包含2.7.9),可至Python官方下载页面下载。 Python安装完成后,在命令行中使用pip安装“requests”库。 pip install

    来自:帮助中心

    查看更多 →

  • Python

    用户可以参考表1和表2配置Python节点的参数。 表1 属性参数 参数 是否必选 说明 Python语句或脚本 是 可以选择Python语句或Python脚本。 Python语句 单击“Python语句”参数下的文本框,在“Python语句”页面输入需要执行的Python语句,选择Python脚本。

    来自:帮助中心

    查看更多 →

  • 使用AWQ量化

    使用AWQ量化 AWQ(W4A16/W8A16)量化方案能显著降低模型显存以及需要部署的卡数。降低小batch下的增量推理时延。支持AWQ量化的模型列表请参见表3。 本章节介绍如何使用AWQ量化工具实现推理量化量化方法:W4A16 per-group/per-channel,

    来自:帮助中心

    查看更多 →

  • 使用AWQ量化

    使用AWQ量化 AWQ(W4A16/W8A16)量化方案能显著降低模型显存以及需要部署的卡数。降低小batch下的增量推理时延。支持AWQ量化的模型列表请参见表3。 本章节介绍如何使用AWQ量化工具实现推理量化量化方法:W4A16 per-group/per-channel,W8A16

    来自:帮助中心

    查看更多 →

  • 使用AWQ量化

    使用AWQ量化 AWQ(W4A16)量化方案能显著降低模型显存以及需要部署的卡数。降低小batch下的增量推理时延。支持AWQ量化的模型列表请参见支持的模型列表和权重文件。 本章节介绍如何使用AWQ量化工具实现推理量化量化方法:W4A16 per-group/per-channel,W8A16

    来自:帮助中心

    查看更多 →

  • 使用AWQ量化

    使用AWQ量化 AWQ(W4A16)量化方案能显著降低模型显存以及需要部署的卡数。降低小batch下的增量推理时延。支持AWQ量化的模型列表请参见表3。 本章节介绍如何使用AWQ量化工具实现推理量化量化方法:per-group Step1 模型量化 可以在Huggingfac

    来自:帮助中心

    查看更多 →

  • 使用GPTQ量化

    使用GPTQ量化 当前版本使用GPTQ量化仅支持W8A16 perchannel的量化形式,使用W8A16的量化不仅可以保证精度在可接受的范围内,同时也有一定的性能收益。 GPTQ W8A16量化支持的模型请参见表1。 本章节介绍如何在GPU的机器上使用开源GPTQ量化工具GPTQ

    来自:帮助中心

    查看更多 →

  • 使用GPTQ量化

    使用GPTQ量化 当前版本使用GPTQ量化仅支持W8A16 perchannel的量化形式,使用W8A16的量化不仅可以保证精度在可接受的范围内,同时也有一定的性能收益。 GPTQ W8A16量化支持的模型请参见表3。 本章节介绍如何在GPU的机器上使用开源GPTQ量化工具GPTQ

    来自:帮助中心

    查看更多 →

  • 使用GPTQ量化

    使用GPTQ量化 当前版本使用GPTQ量化仅支持W8A16 perchannel的量化形式,使用W8A16的量化不仅可以保证精度在可接受的范围内,同时也有一定的性能收益。 GPTQ W8A16量化支持的模型请参见支持的模型列表和权重文件。 本章节介绍如何在GPU的机器上使用开源GPTQ量化工具GPTQ

    来自:帮助中心

    查看更多 →

  • 使用AWQ量化

    使用AWQ量化 AWQ(W4A16/W8A16)量化方案能显著降低模型显存以及需要部署的卡数。降低小batch下的增量推理时延。支持AWQ量化的模型列表请参见表3。 本章节介绍如何使用AWQ量化工具实现推理量化量化方法:W4A16 per-group/per-channel,W8A16

    来自:帮助中心

    查看更多 →

  • 使用GPTQ量化

    使用GPTQ量化 当前版本使用GPTQ量化仅支持W8A16 perchannel的量化形式,使用W8A16的量化不仅可以保证精度在可接受的范围内,同时也有一定的性能收益。 GPTQ W8A16量化支持的模型请参见支持的模型列表和权重文件。 本章节介绍如何在GPU的机器上使用开源GPTQ量化工具GPTQ

    来自:帮助中心

    查看更多 →

  • 文本向量化

    文本向量化 功能介绍 将用户输入的文本转化成数字向量,多用于从向量化知识库中查询相似的文本。 URI POST https://aiae.appstage.myhuaweicloud.com/v1/embeddings 请求参数 表1 请求Header参数 参数 是否必选 参数类型

    来自:帮助中心

    查看更多 →

  • Python

    下载SDK的最新版本。 获取并安装Python安装包(可使用2.7或3.X),如果未安装,请至Python官方下载页面下载。 获取并安装IntelliJ IDEA,如果未安装,请至IntelliJ IDEA官方网站下载。 已在IntelliJ IDEA中安装Python插件,如果未安装,请按照图1所示安装。

    来自:帮助中心

    查看更多 →

  • Python

    Python 本文档所述Demo在提供服务的过程中,可能会涉及个人数据的使用,建议您遵从国家的相关法律采取足够的措施,以确保用户的个人数据受到充分的保护。 本文档所述Demo仅用于功能演示,不允许客户直接进行商业使用。 本文档信息仅供参考,不构成任何要约或承诺。 发送短信 # -*-

    来自:帮助中心

    查看更多 →

  • Python

    Secret等信息,具体参见认证前准备。 获取并安装Python安装包(可使用2.7.9+或3.X),如果未安装,请至Python官方下载页面下载。 Python安装完成后,在命令行中使用pip安装“requests”库。 pip install requests 如果pip安装

    来自:帮助中心

    查看更多 →

  • Python

    Python 样例 语音回呼场景API、获取录音文件下载地址API、呼叫状态通知API、话单通知API 环境要求 Python 3.0及以上版本。 引用库 requests 2.18.1 请自行下载安装Python 3.x,并完成环境配置。 打开命令行窗口,执行pip install

    来自:帮助中心

    查看更多 →

  • Python

    X版本,如果未安装,请至Python官方下载页面下载。 Python安装完成后,在cmd/shell窗口中使用pip安装“requests”库。 pip install requests 如果pip安装requests遇到证书错误,请下载并使用Python执行此文件,升级pip,然后再执行以上命令安装。

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了