回归算法之线性回归(一) 更多内容
  • 线性回归

    线性回归 概述 “线性回归”节点用于产生线性回归模型。它是利用数理统计中的回归分析,来确定两种或两种以上变数间相互依赖的定量关系的统计分析方法。 输入 参数 子参数 参数说明 inputs dataframe inputs为字典类型,dataframe为pyspark中的DataFrame类型对象

    来自:帮助中心

    查看更多 →

  • 使用TensorFlow进行线性回归

    使用TensorFlow进行线性回归 首先在FunctionGraph页面将tensorflow添加为公共依赖 图1 tensorflow添加为公共依赖 在代码中导入tensorflow并使用 import json import random # 导入 TensorFlow 依赖库

    来自:帮助中心

    查看更多 →

  • 回归

    回归 决策树回归 梯度提升树回归 LightGBM回归 线性回归 随机森林回归 父主题: 模型工程

    来自:帮助中心

    查看更多 →

  • 使用pytorch进行线性回归

    使用pytorch进行线性回归 在FunctionGraph页面将torch添加为公共依赖 图1 torch添加为公共依赖 在代码中导入torch并使用 # -*- coding:utf-8 -*- import json # 导入torch依赖 import torch as t

    来自:帮助中心

    查看更多 →

  • 回归评估

    回归评估 概述 对回归模型预测的结果数据集进行评估。 输入 参数 子参数 参数说明 inputs dataframe inputs为字典类型,dataframe为pyspark中的DataFrame类型对象 输出 回归的评估指标:mae、mse、rmse 参数说明 参数 子参数 参数说明

    来自:帮助中心

    查看更多 →

  • LightGBM回归

    提前结束迭代的轮数,默认为0 feature_fraction - 特征的比例,默认为1.0 min_sum_hessian_in_leaf - 个叶子上最小hessian和。取值区间为[0, 1],默认为1e-3 boost_from_average - 是否将初始分数调整为标签的平均值,以加快收敛速度

    来自:帮助中心

    查看更多 →

  • 逻辑回归分类

    逻辑回归分类 概述 “逻辑回归”节点用于数据二分类,支持自动化建模。它可以根据输入训练集高效地完成参数自动调优,并通过LOGISTIC函数将线性回归的输出映射到[0,1]区间,最后根据阈值判断完成数据二分类。 逻辑回归本质上是线性分类方法,因此在考虑使用逻辑回归模型前,要保证

    来自:帮助中心

    查看更多 →

  • 随机森林回归

    随机森林回归 概述 “随机决策森林回归”节点用于产生回归模型。随机决策森林是用随机的方式建立个森林模型,森林由很多的决策树组成,每棵决策树之间没有关联。当有个新的样本输入时,该样本取值为所有决策树的预测值的平均值。 随机决策森林回归中的决策树算法是递归地构建决策树的过程,用平

    来自:帮助中心

    查看更多 →

  • 梯度提升树回归

    梯度提升树回归 概述 “梯度提升树回归”节点用于生成回归模型,是种基于决策树的迭代回归算法。该算法采用迭代的思想不断地构建决策树模型,每棵树都是通过梯度优化损失函数而构建,从而达到从基准值到目标值的逼近。算法思想可简单理解成:后次模型都是针对前次模型预测出错的情况进行修正,

    来自:帮助中心

    查看更多 →

  • 时间序列预测

    季节性变化的周期。例如数据点是按天采集,季节性周期是周,则seasonality为7。 forecastOrder 否 指定需要预测的元素。 当forecastOrder为1,预测下个元素。 当forecastOrder为2,预测下下个元素。默认值为1。 使用此参数时需要保证ov

    来自:帮助中心

    查看更多 →

  • 时间序列预测

    季节性变化的周期。例如数据点是按天采集,季节性周期是周,则seasonality为7。 forecastOrder 否 指定需要预测的元素。 当forecastOrder为1,预测下个元素。 当forecastOrder为2,预测下下个元素。默认值为1。 使用此参数时需要保证ov

    来自:帮助中心

    查看更多 →

  • 决策树回归

    决策树回归 概述 “决策树回归”节点用于产生回归模型。 决策树算法是递归地构建决策树的过程,用平方误差最小准则,进行特征选择,生成二叉树。平方误差计算公式如下: 其中是样本类标的均值,yi 是样本的标签,N 是样本数量。 输入 参数 子参数 参数说明 inputs dataframe

    来自:帮助中心

    查看更多 →

  • 分类

    分类 决策树分类 梯度提升树分类 LightGBM分类 线性支持向量机分类 逻辑回归分类 多层感知机分类 朴素贝叶斯分类 随机森林分类 FM算法 GBDT PMML模型预测 多层感知机分类(pytorch) 多层感知机预测(PyTorch) 父主题: 模型工程

    来自:帮助中心

    查看更多 →

  • 公共依赖Demo

    公共依赖Demo 使用TensorFlow进行线性回归 使用pytorch进行线性回归 sklearn gym 父主题: 依赖包管理

    来自:帮助中心

    查看更多 →

  • 欠拟合的解决方法有哪些?

    欠拟合的解决方法有哪些? 模型复杂化。 对同算法复杂化。例如回归模型添加更多的高次项,增加决策树的深度,增加神经网络的隐藏层数和隐藏单元数等。 弃用原来的算法,使用个更加复杂的算法或模型。例如用神经网络来替代线性回归,用随机森林来代替决策树。 增加更多的特征,使输入数据具有更强的表达能力。

    来自:帮助中心

    查看更多 →

  • 取回归档存储对象

    取回指定桶中的归档存储对象。

    来自:帮助中心

    查看更多 →

  • 提交排序任务API

    疾病自动诊断、经济预测等领域。逻辑斯蒂回归算法通过在线性回归的基础上叠加个sigmoid激活函数将输出值映射到[0,1]之间,是机器学习领域里常用的二分类算法。LR算法参数请参见逻辑斯蒂回归。 因子分解机算法种基于矩阵分解的机器学习算法,能够自动进行二阶特征组合、学习特征之

    来自:帮助中心

    查看更多 →

  • ARIMA

    ARIMA全称为自回归积分滑动平均模型(Autoregressive Integrated Moving Average model),是时间序列预测分析方法之。ARIMA(p,d,q)中,AR是“自回归”,p为自回归项数;MA为“滑动平均”,q为滑动平均项数,d为使成为平稳序列所做的差分次数(阶数)。

    来自:帮助中心

    查看更多 →

  • FM算法

    assification,则label只能取0或1。 无 task FM算法的训练模式(分类、回归) binary_classification dim 使用英文逗号(,)分隔的三个整数,分别表示0次项、线性项及二次项的长度。 1,1,8 num_epochs 迭代数。 100 learn_rate

    来自:帮助中心

    查看更多 →

  • 取回归档存储对象

    取回指定桶中的归档存储对象。

    来自:帮助中心

    查看更多 →

  • 决策树回归特征重要性

    决策树回归特征重要性 概述 采用决策树回归算法计算数据集特征的特征重要性。 输入 参数 子参数 参数说明 inputs dataframe 参数必选,表示输入的数据集;如果没有pipeline_model和decision_tree_regressor_model参数,表示直接根

    来自:帮助中心

    查看更多 →

共105条
看了本文的人还看了