海岸线文学

海岸线文学>职场小聪明 在线阅读 > 第961章 AI里的白盒黑盒和正则化(第1页)

第961章 AI里的白盒黑盒和正则化(第1页)

白盒模型和黑盒模型,就是人工智能的两种算法,白盒顾名思义,可以用人的理解,就是决策树,叶子大于5放左边,叶子小于五放右边,然后继续往下一层,就是无限的分类,可以理解,而黑盒模型就不一样了,是机器学习,多层神经网络,每个层的一定数量神经元全连接,数据反复自己的调参,加权重,也就是什么数据重要,什么不重要,但都要,只是分量不一样,然后还会根据结果是否准确率高再删除一些数据,再进行反向调参,正向叫线性编程,反向就是回归,反正就是倒腾几百万次,数据变来变去,人无法理解,最后出来一个模型,就可以跟现有数据高度吻合

这是一个白盒模型,决策树,可以一层层的分类,容易理解。

正则化(regularization):原理、方法与应用

在机器学习和深度学习中,过拟合(overfit)

是模型训练的核心挑战之一

——

模型在训练数据上表现极佳,但在未见过的测试数据上泛化能力差。正则化正是解决这一问题的关键技术,其核心思想是通过在损失函数中引入

“惩罚项”,限制模型参数的复杂度,迫使模型学习更简单、更具泛化性的特征,而非死记硬背训练数据中的噪声。

一、正则化的核心目标与本质

1。

核心目标

平衡

“模型拟合能力”

“泛化能力”:避免模型因过度追求训练误差最小化,而忽略对新数据的适应性。

控制模型复杂度:复杂度过高的模型(如高次多项式、深层神经网络)易学习训练数据中的噪声,正则化通过约束参数规模降低复杂度。

2。

本质理解

正则化的本质是

**“奥卡姆剃刀原理”

在机器学习中的体现

**——

在多个能拟合数据的模型中,选择

“最简单”(参数更简洁、特征更通用)的模型,其泛化能力通常更强。例如:用多项式拟合数据时,一次函数(y=ax+b)比五次函数(y=ax?+bx?+。。。+e)更简单,若两者在训练数据上误差接近,一次函数对新数据的预测更稳定。

二、经典正则化方法(针对传统机器学习)

传统机器学习(如线性回归、逻辑回归、支持向量机)中,正则化主要通过对模型参数的

“范数惩罚”

实现,常见有

l1、l2

正则化,以及两者结合的

elastic

1。

l2

正则化(岭回归,ridge

regression)

原理

l2

已完结热门小说推荐

最新标签