ch 07 支持向量机
零散知识点
- SVM 本质上是线性的,但是可以通过核函数把非线性数据弄成线性的、高维的数据。
- Kernel function (干嘛的?) —— 把数据在高维弄成线性的,输入两个低维向量,输出内积(即他们的关系)
- As long as the kernel matrix corresponding to a symmetric function is semi-positive definite, it can be used as a kernel function.
定义:kNN 是一种简单且常用的监督学习算法。
机制:
欧几里得距离(Euclidean Distance):
曼哈顿距离(Manhattan Distance):
切比雪夫距离 (Chebyshev Distance):
闵可夫斯基距离 (Minkowski Distance):
公式:
特殊情况:
应用场景:
内容:
假设基本分类器的错误率彼此独立,根据霍夫丁不等式(Hoeffding inequality),集成分类器的错误率为:
以上公式表明,在 的情况下,随着集成分类器数量 T 的增加,集成分类器的错误率会指数级下降,最终趋于 0。
关键假设: 基本分类器的错误彼此独立。
在什么情况下使用 classification clustering regression 模型?
:物理意义:给定输入样本 x,其真实类别为 的概率。
决策树的结构:
流程:
在线性模型中,我们会发现很多个超平面可以分割两个类。如何选择这些超平面呢?
We should choose the "middle", which has good tolerance, high robustness, and the strongest generalization ability.
超平面方程:
其中:
监督学习 (Supervised learning):
学习样本定义为 。这是指模型通过已有的输入输出样本对来学习预测关系。
预测结果 是连续变量 (The predicted result is a continuous variable):
这对应于 线性回归 (Linear Regression),即模型尝试找到输入 x 和输出 y 之间的线性关系来进行预测。
预测结果 是离散变量 (The predicted result is a discrete variable, classification):
这对应于 对数几率回归 (Log-odds Regression),通常用于分类问题,例如二分类任务。
线性回归像是一把直尺,可以测量任意大小(实数)的东西。
逻辑回归给这把直尺加了一个「限制」,比如测量的结果只能在 0 到 1 之间(通过 sigmoid 函数压缩),用来表示可能性。
假设输入 x 和输出 y 之间存在线性关系 (Assume that there is a linear relationship between input x and output y):
这是线性模型的核心假设,即输出是输入的线性组合。