《机器学习》读书笔记
2021-07-17 18:51:38 46 举报
AI智能生成
为你推荐
查看更多
《机器学习》是周志华教授编写的一本经典教材,全面系统地介绍了机器学习的基本理论和算法。本书深入浅出地讲解了监督学习、无监督学习、半监督学习、强化学习等重要概念,并详细介绍了支持向量机、决策树、神经网络、深度学习等常用算法的原理和应用。此外,本书还涵盖了特征选择、模型评估、模型选择等内容,为读者提供了一套完整的机器学习知识体系。无论是初学者还是专业人士,都能从本书中获得宝贵的知识和实践经验。
作者其他创作
大纲/内容
决策树(decision tree)是一类常见的机器学习方法。
一般的,一棵决策树包含一个根结点、若干个内部结点和若干个叶结点;叶结点对应于决策树结果,其他每个结点则对应于一个属性测试;每个结点包含的样本集合根据属性测试的结果被划分到子结点中;根结点包含样本全集。从根结点到每个叶结点的路径对应了一个判定测试序列。
决策树的学习目的是为了产生一棵泛化能力强,即处理未见示例能力强的决策树,其基本流程遵循简单且直观的“分而治之”(divide-and-conquer)策略。
决策树的生成是一个递归过程。
4.1 基本流程
决策树学习的关键是如何选择最优划分属性。一般而言,随着划分过程不断进行,我们希望决策树的分支结点所包含的样本尽可能属于同一类别,即结点的“纯度”(purity)越来越高。
“信息熵”(information entropy)是度量样本集合最常用的一种指标。
分支主题
考虑到不同的分支结点所包含的样本数不同,样本数越多的分支结点的影响越大,于是可计算出用属性a对样本D进行划分所获得的“信息增益”(information gain)
一般而言,信息增益越大,则意味着使用属性a来划分所获得的“纯度提升”越大。
4.2.1 信息增益
实际上,信息增益准则对可取数目较多的属性有所偏好,为减少这种偏好可能带来的不利影响,著名的 C4.5 决策树不直接使用信息增益,而是使用“增益率”(gain ratio)来选择最优划分属性。
称为属性a的“固有值”(intrinsic value)。
其中
增益率定义为:
增益率准则对可取数目较少的属性有所偏好,因此,C4.5算法并不是直接选择增益率最大的候选划分属性,而是使用了一个启发式:先从候选划分属性中找出信息增益高于平均水平的属性,再从中选择增益率最高的。
4.2.2 增益率
4.2 划分选择
剪枝(pruning)是决策树学习算法对付“过拟合”的主要手段。
决策树剪枝的基本策略有“预剪枝”(prepruning)和“后剪枝”(postpruning)。
预剪枝是指在决策树生成过程中,对每个结点在划分前先进行估计,若当前结点的划分不能带来决策树泛化性能提升,则停止划分并将当前结点标记为叶结点。
预剪枝优缺点:预剪枝使得决策树的很多分支都没有“展开”,这不仅降低了过拟合的风险,还显著减少了决策树的训练时间开销和测试时间开销,但另一方面,有些分支的当前划分虽不能提升泛化性能、甚至可能导致泛化性能暂时下降,但在其基础上进行的后续划分却有可能导致性能显著提高;预剪枝基于“贪心”本质禁止这些分支展开,给预剪枝决策树带来了欠拟合的风险。
4.3.1 预剪枝
后剪枝则是先从训练集生成一棵完整的决策树,然后自底向上地对非叶结点进行考察,若将该结点对应的子树替换为叶结点能带来决策树泛化性能提升,则将该子树替换为叶结点。
后剪枝优缺点:后剪枝决策树通常比预剪枝决策树保留了更多的分支。一般情形下,后剪枝决策树的欠拟合风险很小,泛化性能往往优于预剪枝决策树。但后剪枝过程是在生成完全决策树之后进行的,并且要自底向上地对数中的所有非叶结点进行逐一考察,因此其训练时间开销比未剪枝决策树和预剪枝决策树要大得多。
4.3.2 后剪枝
4.3 剪枝处理
对于连续属性可以使用连续属性离散化技术,最简单的策略是采用二分法(bi-partition)对连续属性进行处理,这是 C4.5 决策树中采用的机制。
对连续属性a,我们可考察包含 n-1 个元素的候选划分点集合
4.4.1 连续值处理
现实任务中常会遇到某些属性值缺失的不完整样本,此时需要解决两个问题:(1)如何在属性值缺失的情况下进行划分属性选择?(2)给定划分属性,若样本在该属性上的值缺失,如何对样本进行划分?
对于问题(1)可以根据训练集中在属性a上没有缺失值的样本子集来判断属性a的优劣,从而划分属性选择;对于问题(2)若样本 x 在划分属性 a 上的取值已知,则将 x 划入与其取值对应的子结点。若样本 x 在划分属性 a 上的取值未知,就让同一个样本以不同的概率划入到不同的子结点中去。
4.4.2 缺失值处理
4.4 连续与缺失值
决策树所形成的分类边界有一个明显的特点:轴平行(axis-parallel),即它的分类边界由若干个与坐标轴平行的分段组成。“多变量决策树”(multivariate decision tree)能实现“斜划分”甚至更复杂划分的决策树。
与传统的“单变量决策树”(univariate decision tree)不同,在多变量决策树的学习过程中,不是为每个非叶结点寻找一个最优划分属性,而是试图建立一个合适的线性分类器。
4.5 多变量决策树
第 4 章 决策树
神经网络(neural networks)是由具有适应性的简单单元组成的广泛并行互连的网络,它的组织能够模拟生物神经系统对真实世界物体所作出的交互反映。
神经网络中最基本的成分是神经元(neuron)模型,即上述定义中的“简单单元”。
在“M-P 神经元模型”中,神经元接收到来自 n 个其他神经元传递过来的输入信号,这些输入信号通过带权重的连接进行传递,神经元接收到的总输入值将与神经元的阈值进行比较,然后通过“激活函数”(activation function)处理以产生神经元的输出。
5.1 神经元模型
感知机(Perceptron)由两层神经元组成,输入层接收外界输入信号后传递给输出层,输出层是 M-P 神经元,亦称“阈值逻辑单元”(threshold logic unit)。感知机能容易地实现逻辑与、或、非运算。
感知机只有输出层神经元进行激活函数处理,即只拥有一层功能神经元(functional neuron),其学习能力非常有限。
要解决非线性可分问题,需要考虑使用多层功能神经元,输出层与输入层之间的一层神经元被称为隐层或隐含层(hidden layer),隐含层和输出层神经元都是拥有激活函数的功能神经元。
每层神经元与下一层神经元全互连,神经元之间不存在同层连接,也不存在跨层连接,这样的神经网络结构通常称为“多层前馈神经网络”(multi-layer feedforward neural networks),其中输入层神经元接收外界输入,隐含层与输出层神经元对信号进行加工,最终结果由输出层神经元输出。换言之,输入层神经元仅是接受输入,不进行函数处理,隐层与输出层包含功能神经元。
神经网络的学习过程是根据训练数据来调整神经元之间的“连接权”(connection weight)以及每个功能神经元的阈值。换言之,神经网络“学”到的东西蕴含在连接权与阈值中。
5.2 感知机与多层网络
误差逆传播(error BackPropagation,简称 BP)算法是迄今最为成功的神经网络学习算法。现实任务中使用神经网络时,大多是在使用 BP 算法进行训练。
BP 算法不仅可用于多层前馈神经网络,还可以用于其他类型的神经网络。但通常说“BP 网络”时,一般是指用 BP 算法训练的多层前馈神经网络。
BP 算法基于梯度下降(gradient descent)策略,以目标的负梯度方向对参数进行调整。
BP 算法的目标是要最小化训练集 D 上的累积误差
如何设置隐层神经元的个数仍是个未知问题,实际应用中通常靠“试错法”(trial-by-error)调整。
有两种策略常用来缓解 BP 网络的过拟合,第一种策略是“早停”(early stopping),第二种策略是“正则化”(regularization)。
5.3 误差逆传播算法
我们常会谈到两种“最优”:“局部极小”(local minimum)和“全局最小”(global minimum),“全局最小”一定是“局部极小”,反之则不成立。
基于梯度的搜索是使用最为广泛的参数寻优方法。
5.4 全局最小与局部最小
RBF (Radial Basis Function,径向基函数)网络是一种单隐层前馈神经网络,它使用径向基函数作为隐层神经元激活函数,而输出层则是对隐层神经元输出的线性组合。
具有足够多隐层神经元的 RBF 网络能以任意精度逼近任意连续函数。
5.5.1 RBF 网络
竞争型学习(competitive learning)是神经网络中一种常用的无监督学习策略,在使用该策略时,网络的输出神经元相互竞争,每一时刻仅有一个竞争获胜的神经元被激活,其他神经元的状态被抑制,这种机制亦称“胜者通吃(winner-take-all)”原则。
ART(Adaptive Resonance Theory,自适应谐振理论)网络是竞争型学习的重要代表,该网络由比较层、识别层、识别阈值和重置模块构成。
ART 比较好地缓解了竞争型学习中的“可塑性-稳定性窘境”(stabilityplasticity dilemma),可塑性是指神经网络要有学习新知识的能力,而稳定性则是指神经网络在学习新知识时要保持对旧知识的记忆。这就使得 ART 网络具有一个很重要的优点:可进行增量学习(incremental learning)或在线学习(online learning)。
5.5.2 ART网络
SOM (Self-Organizing Map,自组织映射)网络是一种竞争学习型的无监督神经网络,它能将高维输入数据映射到低维空间(通常为二维),同时保持输入数据在高维空间的拓扑结构,即将高维空间相似的样本点映射到网络输出层中的邻近神经元。
SOM 的训练目的是为每个输出层神经元找到合适的权向量,以达到保持拓扑结构的目的。
5.5.3 SOM网络
结构自适应网络将网络结构也当作学习的目标之一,并希望能在训练过程中找到最符合数据特点的网络结构。级联相关(Cascade-Correlation)网络是结构自适应网络的重要代表。
与一般的前馈神经网络相比,级联相关网络无需设置网络层数、隐层神经元数目,且训练速度较快,但其在数据较小时易陷入过拟合。
5.5.4 级联相关网络
与前馈神经网络不同,“递归神经网络”(recurrent neural networks)允许网络中出现环形结构,从而可让一些神经元的输出反馈回来作为输入信号。Elman 网络是最常用的递归神经网络之一。
5.5.5 Elman 网络
神经网络中有一类模型是为网络状态定义一个“能量”(energy),能量最小化时网络达到理想状态,而网络的训练就是在最小化这个能量函数。Boltzmann 机就是一种“基于能量的模型”(energy-based model)。
5.5.6 Boltzmann 机
5.5 其他常见神经网络
随着云计算、大数据时代的到来,计算能力的大幅提高可缓解训练低效性,训练数据的大幅增加则可降低过拟合风险,因此,以“深度学习”(deep learning)为代表的复杂模型开始受到人们的关注。
典型的深度学习模型就是很深层的神经网络。对神经网络模型而言,提高容量的一个简单方法是增加隐层的数目,模型复杂度也可以通过单纯增加隐层神经元的数目来实现,但没增加隐层数目有效。
无监督逐层训练(unsupervised layer-wise training)是多隐层网络训练的有效手段,其基本思想是每次训练一层隐结点,训练时将上一层隐结点的输出作为输入,而本层隐结点的输出作为下一层隐结点的输入,这称为“预训练”(pre-training);在预训练全部完成后,再对整个网络进行“微调”(finetuning)训练。
通过多层处理,逐渐将初始的“低层”特征表示转化为“高层”特征表示后,用“简单模型”即可完成复杂的分类等学习任务。由此可将深度学习理解为进行“特征学习”(feature learning)或“表示学习”(representation learning)。
以往在机器学习用于现实任务时,描述样本的特征通常由人类专家来设计,这称为“特征工程”(feature engineering)。众所周知,特征的好坏对泛化性能有至关重要的影响,人类专家设计出好特征也并非易事;特征学习则通过机器学习技术自身来产生好特征,这使机器学习向“全自动数据分析”又前进了一步。
5.6 深度学习
第 5 章 神经网络
给定训练样本集
分类学习最基本的想法就是基于训练集 D 在样本空间中找到一个划分超平面,将不同类别的样本分开。
在样本空间中,划分超平面可通过如下线性方程来描述:
为法向量,决定了超平面的方向;b为位移项,决定了超平面与原点之间的距离。
支持向量机(Support Vector Machine,简称SVM)的基本型为:
6.1 间隔与支持向量
对支持向量机基本型式子使用拉格朗日乘子法可得到其“对偶问题”(dual problem)。
支持向量机的一个重要性质:训练完成后,大部分的训练样本都不需保留,最终模型仅与支持向量有关。
6.2 对偶问题
现实任务中,原始样本空间内也许并不存在一个能正确划分两类样本的超平面,对这样的问题,可将样本从原始空间映射到一个更高维的特征向量,使得样本在这个特征空间内线性可分。如果原始空间是有限集,即属性数有限,那么一定存在一个高维特征空间样本可分。
这里的函数 k(·,·)就是“核函数”(kernel function)。
“核函数选择”称为支持向量机的最大变数。若核函数选择不合适,则意味着将样本映射到了一个不合适的特征空间,很可能导致性能不佳。
6.3 核函数
现实任务中往往很难确定合适的核函数使得训练样本在特征空间中线性划分,所以就要引出“软间隔”(soft margin)的概念。
软间隔允许某些样本不满足约束
软间隔支持向量机为
软间隔支持向量机的最终模型仅与支持向量有关。
称为“正则化”(regularization)问题,Ω(f)称为正则化项,C称为正则化常数。
6.4 软间隔与正则化
支持向量回归(Support Vector Regression,简称SVR)假设我们能容忍 f(x)与 y 之间最多有 Є 的偏差,即仅当 f(x) 与 y 之间的差别绝对值大于 Є 时才计算损失。
6.5 支持向量回归
人们发展处一系列基于核函数的学习方法,统称为“核方法”(kernel methods)。最常见的是通过“核化”(即引入核函数)来将线性学习器拓展为非线性学习器。
6.6 核方法
第 6 章 支持向量机
拒绝白嫖,从我做起,右上角点个赞 !是我前进的动力
机器学习所研究的主要内容是关于在计算机上从数据中产生“模型”(model)的算法,即“学习算法”(learning algorithm)。可以说机器学习是研究关于“学习算法”的学问。
1.1 引言
一组记录的集合称为一个“数据集”(data set),其中每条记录是关于一个事件或对象的描述,称为一个“示例”(instance)或“样本”(sample)。反映事件或对象在某方面的表现或性质的事项,称为“属性”(attribute)或“特征”(feature),属性上的取值称为“属性值”(attribute value),属性张成的空间称为“属性空间”(attribute space)、“样本空间”(sample space)或“输入空间”。
由于空间中的每个点对应一个坐标向量,因此也把一个示例称为一个“特征向量”(feature vector)。每个示例由 d 个属性描述,则 d 称为样本的“维数”(dimensionality)。
从数据中学得模型的过程称为“学习”(learning)或“训练”(training)。训练过程中使用的数据称为“训练数据”(training data),其中每个样本称为一个“训练样本”(training sample),训练样本组成的集合称为“训练集”(training set)。
关于示例结果的信息称为“标记”(label),拥有了标记信息的示例称为“样例”(example),所有标记的集合称为“标记空间”(label space)或“输出空间”。
对只涉及两个类别的“二分类”(binary classification)任务,通常称其中一个类为“正类”(positive class),另一个为“反类”(negative class);涉及多个类别时,则称为“多分类”(multi-class classification)任务。
学得模型后,使用其进行预测的过程称为“测试”(testing),被预测的样本称为“测试样本”(testing sample)。
“聚类”(clustering)有助于我们了解数据的内在规律,能为更深入地分析数据建立基础。
根据训练数据是否拥有标记信息,学习任务可大致分为两大类:“监督学习”(supervised learning)和“无监督学习”(unsupervised learning),分类和回归是前者的代表,而聚类则是后者的代表。
学得模型适用于新样本的能力,称为“泛化”(generalization)能力。
1.2 基本术语
归纳(induction)与演绎(deduction)是科学推理的两大基本手段。前者是从特殊到一般的“泛化”(generalization)过程,即从具体的事实归结出一般性规律;后者则是从一般到特殊的“特化”(specialization)过程,即从基础原理推演出具体状况。
1.3 假设空间
机器学习算法在学习过程中对某种类型假设的偏好,称为“归纳偏好”(inductive bias),或简称为“偏好”。任何一个有效的机器学习算法必有其归纳偏好。
“奥卡姆剃刀”(Occam's razor)是一种常用的、自然科学研究中最基本的原则,即“若有多个假设与观察一致,则选最简单的那个”。
在具体问题现实问题中,算法的归纳偏好是否与问题本身匹配,大多数时候直接决定了算法能否取得好的性能。
无论学习算法a多聪明、学习算法b多笨拙,它们的期望性能是相同的,这就是“没有免费的午餐”(No Free Lunch Theorem,简称NFL定理)。NFL 定理有一个重要前提:所有“问题”出现的机会相同、或所有问题同等重要,但实际情形并不是这样。NFL 定理最重要的寓意是让我们清楚地认识到,脱离具体问题,空泛地谈论“什么学习算法更好”毫无意义,要谈论算法的相对优劣,必须要针对具体的学习问题。学习算法自身的归纳偏好与问题是否相配,往往会起到决定性的作用。
1.4 归纳偏好
机器学习是人工智能(artificial intelligence)研究发展到一定阶段的必然产物。
决策树学习技术由于简单易用,到今天仍是最常用的机器学习技术之一。事实上,BP算法一直被应用得罪广泛的机器学习算法之一。
连接主义学习的最大局限性是其“试错性”,简单地说,其学习过程涉及大量参数,而参数的设置缺乏理论指导,主要靠手工“调参”,夸张一点说,参数调节上失之毫厘,学习结果可能谬以千里。
以往机器学习技术在应用中取得好性能,对使用者的要求较高;而深度学习技术涉及的模型复杂度非常高,以至于只要下工夫“调参”,把参数调节好,性能往往就好。因此,深度学习虽然缺乏严格的理论基础,但它显著降低了机器学习应用者的门槛,为机器学习技术走向工程实践带来了便利。
深度学习如今火起来的基本原因有两个:数据大了、计算能力强了。深度学习模型拥有大量参数,若数据样本少,则很容易“过拟合”;如此复杂的模型、如此大的数据样本,若缺乏强力计算设备,根本无法求解。
1.5 发展历程
今天,在技术科学的主动分支学科领域中,无论是多媒体、图形学,还是网络通信、软件工程,乃至体系结构、芯片设计都能找到机器学习技术的身影,尤其是在计算机视觉、自然语言处理等“计算机应用技术”领域,机器学习已成为最重要的技术进步源泉之一。
“计算”的目的往往是数据分析,而数据科学的核心也恰是通过分析数据来获得价值。
若要列出目前计算机科学技术中最活跃、最受瞩目的研究分支,那么机器学习必居其中。
美国国家科学基金会在加州大学伯克利分校启动加强计划,强调要深入研究和整合大数据时代的三个关键技术:机器学习、云计算、众包(crowdsourcing)。
收集、存储、传输、管理大数据的目的是为了“利用”大数据,而如果没有机器学习技术分析数据,则“利用”无从谈起。
1.6 应用现状
第 1 章 绪论
通常把分类错误的样本数占样本总数的比例称为“误差率”(error rate),即如果在m个样本中有a个样本分类错误,则错误率E=a/m;相应的1-a/m称为“精度”(accuracy),即“精度=1-错误率”。
学习器的实际预测输出与样本的真实输出之间的差异称为“误差”(error),学习器在训练集上的误差称为“训练误差”(training error)或“经验误差”(empirical error),在新样本上的误差称为“泛化误差”(generalization error)。
当学习器把训练样本学得“太好”的时候,很可能把训练样本自身的一些特点当作了所有潜在样本都具有的一般特性,这样就会导致泛化性能下降,这种现象在机器学习中称为“过拟合”(overfitting),与“过拟合”相对应的是“欠拟合”(underfitting),这是指对训练样本的一般性质尚未学好。
2.1 经验误差与过拟合
测试集应该尽可能与训练集互斥,即测试样本尽量不在训练集中出现、未在训练过程中使用过。
“留出法”(hold-out)直接将数据集D划分为两个互斥的集合,其中一个集合作为训练集S,另一个作为测试集T,即D=S∪T,S∩T=∅。在S上训练出模型后,用T来评估其测试误差。
如果从采样(sampling)的角度来看待数据集的划分过程,则保留类别比例的采样方式通常称为“分层采样”(stratified sampling)。
单次使用留出法得到的估计结果往往不够稳定可靠,在使用留出法时,一般要采用若干次随机划分、重复进行实验评估后取平均值做为留出法的评估结果。
常见做法是将大约2/3~4/5的样本用于训练,剩余样本用于测试。
2.2.1 留出法
“交叉验证法”(cross validation)先将数据集 D 划分为k个大小相似的互斥子集,每个子集都尽可能保持数据分布的一致性,即从 D 中通过分层采样得到。然后每次用 1 个子集作为测试集,剩余的作为训练集,这样就可以得到 k 组训练/测试集,从而可以进行 k 次训练和测试,最终返回的是这 k 个测试结果的取值。通常把交叉验证法称为“k折交叉验证”(k-fold cross validation),k 最常用的取值是10,此时称为10折交叉验证。
2.2.2 交叉验证法
“自助法”(bootstrapping)是直接以自助采样发(bootstrap sampling)为基础,基本原理为随机从有 m 个样本的数据集中随机挑选一个样本拷贝到新的数据集,然后把这个样本再放回去,重复这个过程 m 次后,就可以得到一个有 m 个样本的新数据集,使用这个新的数据集进行做为训练集。
自助法在数据集较小、难以有效划分训练/测试集时很有用,在初始数据量足够时,留出法和交叉验证法更常用一些。
自助法产生的数据集改变了初始数据集的分布,这会引入估计偏差。
2.2.3 自助法
大多数学习算法都有些参数(parameter)需要设定,参数配置不同,学得模型的性能往往有显著差别。
在模型选择完成后,学习算法和参数配置已选定,此时应该用数据集D重新训练模型,这个模型训练过程中使用了所有 m 个样本,这才是我们最终提交给用户的模型。
我们通常把学得模型在实际使用中遇到的数据称为测试数据,为了加以区分,模型评估与选择中用于评估测试的数据集常称为“验证集”(validation set)。
2.2.4 调参与最终模型
2.2 评估方法
性能度量(performance measure)是用于衡量模型泛化能力的评价标准。
性能度量反映了任务需求,在对比不同模型的能力时,使用不同的新能度量往往会导致不同的评判结果,这意味着模型的“好坏”是相对的,什么样的模型是好的,不仅取决于算法和数据,还决定于任务需求。
错误率和精度是分类任务中常用的两种性能度量,即适用于二分类任务,也适用于多分类任务。
错误率是分类错误的样本数占样本总数的比例,精度则是分类正确的样本数占样本总数的比例。
2.3.1 错误率与精度
“查准率”(precision)与“查全率”(recall)是更适合信息检索等应用场景的性能度量。
P-R 图可以直观地显示出学习器在样本总体上的查全率、查准率,在进行比较时,若一个学习器的 P-R 曲线被另一个学习器的曲线完全“包住”,则可断言后者的性能优于前者。
“平衡点”(Break-Even Poin,简称BEP)是“查准率=查全率”时的取值。
2.3.2 查准率、查全率与 F1
为权衡不同类型错误所造成的不同损失,可为错误赋予“非均等代价”(unequal cost)。
2.3.3 代价敏感错误率与代价曲线
2.3 性能度量
统计假设检验(hypothesis test)为我们进行学习器性能比较提供了重要依据。
“二项检验”(binomial test)和“t 检验”(t-test)是关于单个学习器泛化性能的假设进行检验,而在现实任务中,更多时候需要对不同学习器的性能进行比较,此时可以使用交叉验证 t 检验、McNemar检验、Friedman检验与Nemenyi后续检验等方法。
2.4 比较检验
“偏差-方差分解”(bias-variance decomposition)是解释学习算法泛化性能的一种重要工具。
泛化误差可分解为偏差、方差与噪声之和。偏差度量了学习算法的期望预测与真实结果的偏离程度,即刻画了学习算法本身的拟合能力;方差度量了同样大小的训练集的变动所导致的学习性能的变化,即刻画了数据扰动所造成的影响;噪声则表达了在当前任务上任何学习算法所能达到的预期泛化误差的下界,即刻画了学习问题本身的难度。
偏差-方差分解说明,泛化性能是由学习算法的能力、数据的充分性以及学习任务本身的难度所共同决定的。给定学习任务为了取得好的泛化性能,则需使用偏差较小,即能够充分拟合数据,并且使方差较小,即使得数据扰动产生的影响小。
2.5 偏差与方差
第 2 章 模型评估与选择
线性模型形式简单、易于建模,但却蕴含着机器学习中一些重要的基本思想。许多功能更为强大的非线性模型(nonlinear model)可在线性模型的基础上通过引入层级结构或高维映射而得。并且线性模型有很好的可解释性(comprehensibility)。
3.1 基本形式
“线性回归”(linear regression)可以学得一个线性模型以尽可能准确地预测实值输出标记。
线性回归试图学得
均方误差有非常好的几何意义,它对应 了常用的欧几里得距离或简称“欧氏距离”(Euclidean distance)。基于均方误差最小化来进行模型求解的方法称为“最小二乘法”(least square method)。在线性回归中,最小二乘法就是试图找到一条直线,使所有样本到直线上的欧氏距离之和最小。
“多元线性回归”(multivariate linear regression)
“广义线性模型”(generalized linear model),其中函数g(·)称为“联系函数”(link function)。
3.2 线性回归
对数几率函数(logistic function)为:
“对数几率回归”(logistic regression,亦城logit regression),其对应的函数为:
3.3 对数几率回归
线性判别分析(Linear Discriminant Analysis,简称LDA)是一种经典的线性学习方法,在二分类问题上因最早由Fisher提出,亦称“Fisher判别分析”。
LDA的思想为:给定训练样例集,设法将样例投影到一条直线上,使得同类样例的投影点尽可能接近,异类样例的投影点尽可能远离。在对新样本进行分类时,将其投影到同样的这条直线上,再根据投影点的位置来确定新样本的类别。
LDA也适用于多分类任务,也是常被视为一种经典的监督降维技术。
3.4 线性判别分析
有些二分类学习方法可直接推广到多分类,但在更多情形下,可以基于一些基本策略,利用二分类学习器来解决多分类问题。
最经典的才分策略有三种:“一对一”(One vs. One,简称OvO)、“一对其余”(One vs. Rest,简称OvR)和“多对多”(Many vs. Many,简称MvM)。
OvO的存储开销和测试时间开销通常比OvR更大,在类别很多时,OvO的训练时间开销通常比OvR更小。至于预测性能,则取决于具体的数据分析,在多数情形下两者差不多。
"纠错输出码"(Error Correcting Output Codes,简称ECOOC)是一种最常用的MvM技术。
一般来说,对同一个学习任务,ECOOC编码越长,纠错能力越强。然而,编码越长,意味着所需训练的分类器越多,计算、存储开销都会增大。
对同等长度的编码,理论上来说,任意两个类别之间的编码距离越远,则纠错能力越强。因此,在码长较小时看根据这个原则计算出理论最优编码。
3.5 多分类学习
类别不平衡(class-imbalance)就是指分类任务中不同类别的训练样例数目差别很大的情况。
只要分类器的预测几率高于观察几率就应判定为正例,即
“再缩放”(rescaling)策略
再缩放的思想虽简单,但实际操作却不不容易,主要因为“训练集是真实样本总体无偏采样”这个假设往往不成立,也就是说,我们未必能有效地基于训练集观测几率来推断出真实几率。现有技术大体上有三类做法:第一类是直接对训练集里的反类样例进行“欠采样”,即去除一些反例使得正、反例数据接近,然后再进行学习;第二类是对训练集里的正类样例进行“过采样”,即增加一些正例使得正、反例数目接近,然后再进行学习;第三类则是直接基于原始训练集进行学习,但在用训练好的分类器进行与测时,将式(3.48)嵌入到其决策过程中,称为“阈值移动”(threshold-moving)。
3.6 类别不平衡问题
第 3 章 线性模型
0 条评论
回复 删除
下一页