massquantity的主页

  • 时间:
  • 浏览:2

在集成学习中,通常认为Bagging的主要作用是降低方差,而Boosting的主要作用是降低偏差。Boosting能降低偏差很好理解,或者其原理但是我将多个弱学习器组合成强学习器。但Bagging为那些...

发布时间:2018-05-12 19:55:00 浏览:543 回帖 :0

算法 函数

发布时间:2018-07-04 18:36:00 浏览:877 回帖 :0

EM算法是期望最大化 (Expectation Maximization) 算法的简称,用于涵盖隐变量的具体情况下,概率模型参数的极大似然估计或极大后验估计。EM算法是四种 迭代算法,每次迭代由两步组成:E...

索引 数组

numpy.where (condition[, x, y])numpy.where() 有四种 用法: 1. np.where(condition, x, y) 满足条件(condition),输出x...

算法 函数 LOG

发布时间:2018-04-27 19:41:00 浏览:565 回帖 :0

算法 函数

发布时间:2018-04-22 18:59:00 浏览:951 回帖 :0

代码 损失函数的一般表示为\(L(y,f(x))\),用以衡量真实值\(y\)和预测值\(f(x)\)之间不一致的程度,一般越小越好。为了便于不同损失函数的比较,常将其表示为单变量的函数,在回归问...